Abstract:
PURPOSE: A rehabilitation robot control device is provided to provide constitution method for enhancing wearing convenience. CONSTITUTION: A rehabilitation robot control device comprises an order mode sensing part(110), a motion signal sensing part(120), an organism signal sensing part(130), a host controller(140), and a display part(150). The order mode sensing part recognizes by being transmitted conscious control signal of a user through an input interface. The operation signal sensing part senses movement of the user. The organism signal sensing part monitors the organism status information of the user. The host controller analyzes walking steps by using sensing signals of movement and walking commands. The walking command is recognized through the command mode detection part. The host controller controls the rehabilitation robot by recognizing walking intension of the user.
Abstract:
PURPOSE: A portable sensing apparatus and biometric recognition based service system are provided to directly offer data which is necessary for a mobile apparatus through a local wireless network. CONSTITUTION: A sensor acquires biometric data(S11). A micro processor encodes the acquired biometric recognition data(S12). A mobile apparatus decodes the encoded biometric data. The mobile apparatus determines the quality of the biometric data(S14). When the quality of the biometric recognition data is lower than standard, the mobile apparatus requests the reacquisition of the biometric data(S15, S16).
Abstract:
본 발명은 사용자 인식 시스템 및 그 방법에 관한 것이다. 본 발명에 따르면, 사용자 아이디 및 해당 사용자 특징 정보를 저장한 후, 사용자 영상 데이타를 전달받아 각 사용자의 절대적 고유 생체 특징인 제1 특징 정보 및 소정 조건에 의한 고유 생체 특징인 제2 특징 정보를 추출하여, 추출된 제1 특징 정보가 임의의 사용자의 상기 제1 특징일 확률인 제1 확률 및 추출된 제2 특징 정보가 임의의 사용자의 상기 제2 특징일 제2 확률을 각각 생성한다. 그리고, 상기 제1 확률 및 상기 제2 확률을 결합하여 입력 영상의 사용자 아이디를 최종 판단한다. 그 결과, 일정 환경내에서는 사용자가 자유롭게 움직이고 있는 상황에서도 사용자를 인식할 수 있다. 사용자 인식, 키, 생체 특징, 로봇, 패턴 인식
Abstract:
A method for detecting and tracking both hands is provided to detect and track motions of both hands in real time without increasing calculation complexity by performing regression of KLT(Kanade-Lucas-Tomasi) feature information to compress the KLT feature information to a gradient value to reduce calculation complexity. A method for detecting and tracking both hands includes a step of modeling both arms including shoulders, elbows and hands of a person from an image, a step of detecting both hands from the modeling, and a step of comparing the image with a previous image to track the positions of both hands by using variations in gradients of straight lines connecting the elbows and both hands. The modeling step detects the positions of shoulder points, detects both hands through first-order regression of KLT feature points, and estimates the elbows from the positions of the shoulder points and the hands.
Abstract:
1. 청구범위에 기재된 발명이 속한 기술분야 본 발명은 휴대형 카메라로 획득한 문자영상의 문자영역선택을 통한 문자인식 장치 및 그 방법에 관한 것임. 2. 발명이 해결하려고 하는 기술적 과제 본 발명은 휴대형 카메라로 획득한 문자영상에서 문자영역을 선택하여 국소 이진화한 후에 문자를 인식함으로써, 문자 추출 및 인식 성능을 향상시킬 수 있는 문자인식 장치 및 그 방법을 제공하는데 그 목적이 있음. 3. 발명의 해결방법의 요지 본 발명은, 휴대형 카메라로 획득한 문자영상의 문자영역선택을 통한 문자인식 장치에 있어서, 휴대형 카메라를 이용하여 획득한 문자영상을 입력받기 위한 문자영상 입력 수단; 상기 문자영상 입력 수단을 통하여 입력받은 카메라 문자영상을 전처리하여 영상을 개선하기 위한 영상 전처리 수단; 상기 영상 전처리 수단에서 영상 개선한 문자영상에 대해 에지 영상을 검출하기 위한 에지 검출 수단; 상기 에지 검출 수단에서 검출한 에지 영상에 대해 화소를 팽창(Dilation)시키기 위한 화소 팽창 수단; 상기 화소 팽창 수단에서 팽창된 문자영상에 대해 화소 영역을 레이블링하여 일정 임계치 이상의 높이를 가진 긴 라인을 형성하는 가상문자영역을 추출하기 위한 가상문자영역 추출 수단; 상기 가상문자영역 추출 수단에서 추출한 문자영역에 대해 이진화를 수행하기 위한 이진화 수단; 상기 이진화 수단에서 이진화한 문자영역에서 문자를 추출하기 위한 문자 추출 수단; 상기 문자 추출 수단에서 추출한 문자의 특징을 추출하기 위한 특징 추출 수단; 및 상기 특징 추출 수단에서 추출한 문자의 특징을 이용하여 문자를 인식하기 위한 문자 인식 수단을 포함함. 4. 발명의 중요한 용도 본 발명은 영상처리 기술분야 중 패턴인식분야의 문자인식 기술분야 등에 이용됨. 휴대형 카메라, 문자영상 획득, 문자영역 선택, 국소 이진화, 문자인식
Abstract:
1. 청구범위에 기재된 발명이 속하는 기술분야 본 발명은 어파인 변환을 이용한 문서 영상의 기하학적 왜곡 보정 장치 및 방법에 관한 것임. 2. 발명이 해결하려고 하는 기술적 과제 본 발명은 문서 영상을 획득하여 문자 인식을 수행하는 과정에서, 문서 영상 자체만으로 이진화 및 영역 분할를 수행하고 어파인 변환을 수행함으로써, 왜곡없는 문자 인식을 수행하기 위한, 어파인 변환을 이용한 문서 영상의 기하학적 왜곡 보정 방법을 제공하는데 그 목적이 있음. 3. 발명의 해결방법의 요지 문서 영상의 기하학적 왜곡 보정 방법에 있어서, 상기 문서 영상을 이진화하는 이진화 단계; 이진화된 문서 영상으로부터 문자열을 생성하는 문자열 생성 단계; 생성된 문자열을 이용하여 문서 영상에 외접하는 수평/수직 방향의 직선을 추출하는 직선 추출 단계; 및 추출된 수평/수직 방향의 직선이 형성하는 사변형 영역을 어파인변환을 이용하여 직사각형 영역으로 변환하는 어파인변환 단계를 포함함. 4. 발명의 중요한 용도 본 발명은 문자 인식 기술에 이용됨. 문자 인식, 문서 영상, 어파인변환, 왜곡 보정
Abstract:
본 발명은 휴대형 카메라를 이용하여 획득한 문서영상의 기하학적 왜곡에 대한 자동 보정방법에 관한 것으로, 카메라를 통해 입력된 문서영상을 영상처리하고, 문서영상의 문자영역 형태를 분석한 후에, 특징이 되는 점들의 좌표를 찾고, 이들을 이용하여 원래의 형태로 복원할 수 있는 변형함수를 찾아내고, 역 매핑을 이용하여 원래의 형상으로 보정하는 것이다.
Abstract:
본 발명은 고체촬상소자의 컬러 필터 어레이(Color Filter Array:CFA)에 의한 컬러값 손실을 보정하는 방법 및 장치에 관한 것이다. 디지털 카메라, 캠코더 등과 같은 이미징 장비에 채택되는 대부분의 CCD 혹은 CMOS 이미지 센서는 베이어(Bayer) 형태의 컬러 필터 어레이를 채택하고 있으며 이미지 센서의 각 픽셀 위치에서 하나의 컬러 값만을 제공한다. 컬러 디모자익(color demosaicing) 혹은 컬러 픽셀 복원 과정은 상기 센서 데이터로부터 적절한 보간(interpolation) 방법을 통해 R, G, B 풀 컬러(full color)를 복원하는 과정을 의미한다. 본 발명에서는 R, G, B 세 가지 컬러 성분을 루미넌스(luminance) 채널(G), 크로미넌스(chrominance) 채널(R, B)로 구분하고, 먼저 루미넌스 채널에 대해 복원 대상 픽셀 위치에서의 에지의 방향을 이용하여 루미넌스 채널을 복원하는 단계와, 컬러 차이를 이용하여 크로미넌스 채널을 복원하는 단계, 그리고, 지역적 컬러 불일치를 제거하기 위해 에지 픽셀에 대한 순차적 필터링(sequential filtering)하는 단계로 구성된다. 본 발명의 실시예에 의해 컬러흠결(color artifact)이 현저하게 줄어든 고품질의 영상을 언더샘플링된 센서 데이터로부터 획득할 수 있게 된다.
Abstract:
본 발명은 렌즈계를 이용한 디지털 카메라, 캠코더 등과 같은 영상 시스템에서 발생하는 비네팅 효과(vignetting effect)에 의한 영상 품질의 저하를 보상할 수 있는 방법에 관한 것이다. 본 발명에 따른 영상 시스템의 비네팅 효과를 보상하기 위한 방법은, (a) 레퍼런스 영상을 획득하여 가로 방향의 각 로우에 대해 조도 분포 함수의 비선형 최적화를 수행함으로써 함수 파라미터를 계산하는 단계; (b) 임의의 영상을 획득하고 각 컬러 성분의 조도 분포에 대한 미리 저장된 함수 파라미터를 이용하여 상기 획득된 영상의 각 픽셀 위치에서의 보정치를 계산하는 단계; 및, (c) 상기 단계 (b)의 계산 과정을 상기 획득된 영상의 전체 행에 대하여 실시하여 각 픽셀 위치에서의 조도 저하에 대한 보상을 수행하고 결과 영상을 얻는 단계를 포함한다.
Abstract:
Disclosed is a method of segmenting touching numeral strings contained in handwritten touching numeral strings, and recognizing the numeral strings by use of feature information and recognized results provided by inherent structure of digits. The method comprises the steps of: receiving a handwritten numeral string extracted from a pattern document; smoothing a curved numeral image of the handwritten numeral string, and searching connecting components in the numeral image; determining whether or not the numeral string is a touching numeral string; if it is determined that the numeral string is the touching numeral string, searching a contour of the touching numeral string image; searching candidate segmentation points in the contour, and segmenting sub-images; computing a segmentation confidence value on each segmented sub-image by use of a segmentation error function to select the sub-image with the highest segmentation confidence value as a segmented numeral image in the touching numeral string image; if it is determined in the step c that the numeral string is not the touching numeral string, extracting a feature to recognize the segmented numeral image; segmenting the numeral image selected from the touching numeral string in the highest segmenting confidence value; and obtaining remaining numeral string image.