Abstract:
보행 의도를 감지하는 다중 센서 신호 처리 시스템을 이용하여 사용자의 보행을 돕는 보행 보조 장치가 제공된다. 이 보행 보조 장치는, 지팡이를 통해 손바닥에 가해지는 힘을 감지하여 손바닥 센서 신호를 생성하는 손바닥 센서부와, 지면을 통해 발바닥에 가해지는 힘을 감지하여 발바닥 센서 신호를 생성하는 센서부와, 상기 손바닥 센서 신호를 이용하여 사용자의 보행 의도를 확인하고, 상기 보행 의도가 있는 것으로 확인되면, 상기 발바닥 센서 신호에 응답하여 구동 신호를 생성하는 휴대용 정보 처리부 및 상기 사용자의 왼쪽 다리에 부착된 왼쪽 모터와 상기 사용자의 오른쪽 다리에 부착된 오른쪽 모터를 포함하고, 상기 구동 신호에 응답하여 상기 왼쪽 모터와 오른쪽 모터가 구동되어, 상기 사용자의 보행을 돕는 보행 보조 기구를 포함한다. 이 보행 보조 장치에 의하면, 상기 손바닥 센서 신호에 의해 사용자의 보행 의도가 파악되고, 발바닥 센서 신호에 의해 사용자의 보행 단계가 정확하게 감지된다.
Abstract:
PURPOSE: A device and a method for testing a face recognition function of an intelligent robot are provided to obtain the repeatability and the reproducibility of an evaluating test using a face image of a user which is previously stored and to produce the quantitative evaluating result. CONSTITUTION: A device for testing a face recognition function of an intelligent robot comprises an image outputting device(300) and a testing device main body(400). The testing device main body allows the image outputting device to display a face image of a user with respect to the intelligent robot by controlling the image outputting device. The testing device main body determines a function with respect to the face recognition and the authentication of the intelligent robot by analyzing the face image displayed in the image outputting device. [Reference numerals] (300) Image outputting device; (422) Robot control unit; (424) Lighting device control unit; (426) Image outputting device control unit; (442) Test preparing unit; (444) Test managing unit; (446) Test result determining unit; (460) Image data storage unit
Abstract:
본 발명은 홍채 영상 획득 시 발생하는 기하학적 왜곡과 잡음을 제거한 홍채 영상 추출을 통해 홍채 인식 또는 인증 과정에서 사용되는 홍채 표현 코드의 정합도를 증진시킬 수 있는 확장 템플릿 정합을 이용한 홍채 영상 추출 방법 및 그 장치에 관한 것이다. 본 발명의 홍채 영상 추출 장치는, 입력되는 눈 영상으로부터 홍채 영역만을 추출하는 홍채 영역 추출부; 상기 추출된 홍채 영역에 대한 극좌표 변환 영상을 생성하는 극좌표 변환부; 상기 극좌표 변환 영상을 대역통과 필터링하여 이진화시키는 이진화부; 및 등록 홍채영역 템플릿과 상기 이진화부로부터 입력되는 이진화 템플릿간의 비교를 통해 기하 왜곡 보정을 함으로써 정확한 홍채 영역을 추출하는 템플릿 정합부;로 구성된다.
Abstract:
본 발명의 목적은 장면 전환이 2회 이상 발생한 경우 배경과 물체의 움직임이 있을 때 모자이크 기법을 이용하여 문자 영역의 원영상을 정확하게 복원하는 것으로, 이와 같은 본 발명의 목적을 달성하기 위한 모자이크 기법을 이용한 동영상 문자 영역의 원 영상 복원 장치는, 입력되는 동영상(비디오영상)으로부터 영상 장면 전환 정보를 추출하는 동영상 장면 전환 정보 추출수단과, 상기 입력되는 동영상(비디오영상)으로부터 복원될 자막영역 정보를 추출하는 자막 영역 정보 추출수단을 포함하는 동영상 문자영역의 원영상 복원장치에 있어서, 상기 동영상 장면 전환 정보 추출수단에서 추출된 동영상 장면 전환 정보와 입력되는 모션정보에 의해서 자막영역에서 장면 전환이 2회 이상 발생한 경우에 자막영역의 원영상 복원을 제어하는 제어수단과, 상기 제어수단의 제어에 따라, 상기 동영상 장면 전환 정보 추출수단에서 추출된 동영상 장면 전환 정보와 상기 자막 영역 정보 추출수단에서 추출된 자막영역의 2배 영역 위치 정보를 이용하여, 그 자막영역에서의 배경 및 물체의 모션 정보를 추출하는 모션 정보 추출수단과, 상기 모션정보 추출수단에서 추출된 모션 정보에 대응하는 모션 발생값이 기 설정된 임계값 이상일 때, 상기 제어수단의 제어에 따라 모자이크 기법을 이용한 원영상 복원 방법을 수행하는 제1 원영상 복원수단을 포함하여 구성되는 것을 특징으로 한다.
Abstract:
본 발명은 세포 영상 분석 시스템에서의 세포 영상 분할 방법에 관한 것으로, 개선된 스네이크 영상 분할 방법을 이용하여 시간에 따라 변화하는 세포 영역을 효과적으로 분할 할 수 있는 세포 영상 분석 시스템에서의 세포 영상 분할 방법과 상기 방법을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공하며, 입력된 전체영상에서 대표 영상을 추출하고, 각 세포의 경계선을 추출하여 첫 번째 영상의 스네이크 초기점으로 설정하는 제 1 단계; 상기 첫 번째 영상에서 세포의 경계선을 추출하여 다음 영상의 스네이크 초기점으로 설정하는 제 2 단계; 상기 제 2 단계에서 설정된 스네이크 초기점이 세포의 경계선 근처에 있는지 판단하는 제 3 단계; 상기 제 3 단계의 판단 결과, 세포의 경계선 근처에 있으면 유클리디언 거리 값으로 세포의 경계선을 추출하는 제 4 단계; 및 상기 제 3 단계의 판단 결과, 세포의 경계선 근처에 있지 않으면 블록 매칭을 수행하여 세포의 경계선까지 스네이크 점을 유도하고 상기 제 3 단계의 세포의 경계선 근처에 있는지 판단하는 과정으로 진행하는 제 5 단계를 포함하고, 바이오 영상 처리 시스템 등에 이용됨.
Abstract:
PURPOSE: An online sign certification device using a pattern transform method and a realizing method thereof are provided to confirm an ID of a signer and enhance discrimination for a forged sign by analyzing a characteristic of a transform pattern visualizing a dynamic characteristic of a sign pattern. CONSTITUTION: A sign data input part(100) reads a locus of the sign as a sequence sampled in the same time interval by digitalizing the locus of the sign from a reference sign database(106). The first and the second pattern transformer(101,102) generate a transformed pattern sequence by respectively performing speed equalization and velocity transform for the read sign sequence. A characteristic extractor(104) generates three pairs of characteristic vectors by respectively extracting the characteristic vector from the read sign sequence and the pattern sequence transformed by the first/second pattern transformer. A difference vector calculator(108) generates a difference vector between the characteristic vector for a reference sign and the extracted characteristic vector. A judging part(110) judges accordance between the input sign and the reference by based on the difference vector.
Abstract:
PURPOSE: A texture-based searching method with co-occurrence matrix and normalized Euclidean distance is provided to search a moving image effectively based on co-occurrence matrix and normalized Euclidean distance. CONSTITUTION: A texture feature vector is obtained through co-occurrence matrix of a selected distance of a sample image. The input image is analyzed based on a window. A texture feature is obtained by the co-occurrence matrix of the analyzed window-based image. A normalized Euclidean distance between the texture feature vectors of the selected distance and the window is obtained. The normalized Euclidean distance is compared with a specific value. Finally, the current texture is recognized as a different one if the normalized Euclidean distance is larger or the same as the specific value. Otherwise, the texture is the same.
Abstract:
PURPOSE: A color image search system using wavelet conversion and a method for the same are provided to improve a search speed of a color image by using a wavelet conversion method. CONSTITUTION: A graphic user interface(100) is used for controlling a total flow chart of a system. A preprocessor(102) performs a normalization and color space conversion process for an input image and an inquiry image. A characteristic extractor(104) performs a wavelet conversion process and calculates an average and a standard deviation of the first band and a centroid of gravity of neighboring bands. A searcher(106) receives characteristic data of the inquiry image and performs a search process. An average and standard deviation characteristic data manager(108) stores the average and the standard deviation data. A gravity centroid characteristic data manager(110) stores the gravity centroid characteristic data. An image database(112) stores the input image, receives a result signal of the searcher(106), and transmits the corresponding image to the graphic user interface(100). A display device(114) displays an index processing procedure and a search processing procedure received from the graphic user interface(100).
Abstract:
본 발명은 비디오 영상에서 자막을 자동으로 추출하고 인식하는 방법에 관한 것으로서, 종래에는 단순한 인덱스 검색 방법에 의하므로써 영상의 의미를 다양하게 표현하지 못하여 다양한 사용자의 검색 요구를 충족시키지 못하는 문제점이있다. 이에 본 발명은 한 프레임의 비디오 입력 영상(명암값 영상)이 들어오면 전체 영상에서 뉴스 자막이 존재할 징후가 있는 곳을 추출하여 추출된 후보 영역이 연속된 프레임에서 연속성이 계속되는지를 검사함으로서 최종 후보 영역을 추출하고, 추출된 자막의 후보 영역이 진정한 자막 영역인지 확인하기 위하여 대단위 영역화 및 검증을 하며, 영역화 과정에서 구해진 개별 문자 영역을 인식 수단을 사용하여 추출된 자막 인식 단계를 수행하므로써 실시간적으로 뉴스 비디오 자막 추출 및 인식 이 가능하게 하였다.