Abstract:
본 발명은 손가락 움직임을 이용한 데이터 입력 장치에 관한 것으로, 사용자 손가락의 움직임에 따른 손목 근육 떨림(신호)을 이용하여 음소, 숫자, 기호 등을 인식함으로써, 사용자로 하여금 보다 편리하게 데이터를 입력할 수 있도록 하기 위한, 손가락 움직임을 이용한 데이터 입력 장치를 제공하고자 한다. 이를 위하여, 본 발명은 데이터 입력 장치에 있어서, 손가락의 움직임에 따른 손목에 위치한 근육의 떨림 신호를 감지하기 위한 근육 떨림 신호 감지수단, 상기 근육 떨림 신호 감지수단에 의해 감지된 손목 근육의 떨림 신호의 발생 위치에 따라 움직임이 있는 손가락을 구분하고, 손가락의 움직임 횟수에 대한 정보를 획득하기 위한 손가락 정보 획득수단, 및 상기 손가락 정보 획득수단에 의해 획득된 손가락 정보 및 손가락의 움직임 횟수에 해당하는 데이터를 인식하기 위한 인식수단을 포함한다. 데이터 입력, 문자 입력, 손가락 움직임, 손목 근육 떨림, 손가락 정보 획득
Abstract:
본 발명은 인간의 감각 기관을 통해 느끼는 감각 센서 데이터 및 환경 센서 데이터를 이용하여 자동으로 추출한 체감 정보를 태그로 생성하여 디지털 데이터에 부여하는 태깅 장치, 이를 이용한 태깅 및 검색 서비스 제공 시스템 및 방법에 관한 것으로서, 카메라나 마이크 이외에 후각 센서, 미각 센서, 촉각 센서 등의 감각 센서와 온도, 습도, 조도, 풍속 등의 환경 센서 등을 통해 인간이 느끼는 체감 정보를 통합적으로 인지하고, 상기 인지된 체감정보를 태그로 디지털 데이터에 자동으로 또는 수동적으로 부여함으로써 차후에 사용자가 체감 정보를 활용하여 보다 효율적이고 풍부하게 디지털 데이터를 검색하고 활용할 수 있도록 하는 효과가 있다. 체감 정보, 메타데이터, 태그
Abstract:
A digital data tagging apparatus, a tagging and search service providing system by sensory and environmental information, and a method thereof are provided to perform tagging digital data by using sensory information as a tag. A data analyzing module(210) automatically perform image analysis, sound analysis and environment change analysis for transmitted data, and a sensory information recognition module(220) recognizes the sensory information at a point when digital data are generated based on the analyzed data from the data analysis module. A metadata generating module(230) assigns the sensory information to the digital data as tag. The metadata generating module generates the metadata including the recognized sensory information automatically, and stores the generated metadata in a database(240).
Abstract:
A system and a method for integrating recognition of gesture and voice are provided to enhance recognition rate even in gesture with unclear separability by detecting a gesture command section on the basis of an EPD(End Point Detection) value which is a start point of a voice command section. A system for integrating recognition of gesture and voice includes a voice feature extracting unit(210), a gesture feature extracting unit(220), a synchronizing module(230) and an integration recognizing unit(240). The voice feature extracting unit detects a start point and an end point of a command from voice inputted via a mike and extracts voice feature information. The gesture feature extracting unit extracts a command section from gesture in an image captured by a camera by using the start point and the end point detected by the voice feature extracting unit, and extracts gesture feature information. The synchronizing module detects a start point of the gesture from the captured image by using the start point detected by the voice feature extracting unit, and calculates optimal image frames by applying a preset optimal frame number to the detected start point. The integration recognizing unit outputs the extracted voice feature information and gesture feature information with integrated recognition data by using preset learning parameters.
Abstract:
본 발명은 제스처/음성 융합 인식 시스템 및 방법에 관한 것으로, 잡음환경에서 음성과 제스처의 융합을 통해 명령어 인식의 성능을 높이기 위해 입력된 음성 중에서 명령어의 시작점과 끝점을 검출하여 음성특징정보를 추출하는 음성특징추출부, 상기 검출된 시작점과 끝점에 관한 정보를 이용하여 촬영 영상의 제스처로부터 명령구간을 검출하여 제스처특징정보를 추출하는 제스처 특징추출부 및 상기 추출된 음성특징정보와 제스처 특징정보를 기 설정된 학습 파라미터를 이용하여 융합인식 데이터로 출력하는 융합 인식부를 포함하여 구성되어 쉽고 정확하게 사용자의 명령을 인식할 수 있다. 청각 모델, 융합 인식, 제스처, EPD
Abstract:
본 발명은 시선 위치 추적 방법 및 그 장치에 관한 것으로, 상기 적외선으로 조명된 사용자 눈 영상을 45˚ 굴절시켜 획득하는 영상 획득 모듈; 기 설정된 알고리즘을 구동하여 상기 사용자 눈 영상의 동공 중심점을 획득하고, 상기 동공 중심점이 기 설정된 변환함수를 통해 상기 표시화면 평면에 매핑되도록 하는 영상 처리 모듈을 포함하여 구성하며, 이에 의하여 저사양의 시스템에서도 간편하게 시선 위치 추적을 수행하고, 사용자 동공 상하 움직임에 대한 해상도가 증가된 눈 영상을 획득하고, 다수 환경에서 호환성을 가질 수 있는 효과를 가진다. 시선 위치 추적, 응시 위치 추적, 동공 중심점, 동공 중심 좌표
Abstract:
A system and a method for tracking gaze are provided to increase the accuracy of small and inexpensive equipment, and respond to vertical movement of a user pupil sensitively in a terminal equipped with a display device. An image obtaining module(100) obtains a user eye image refracted to 45 angular degrees by irradiating infrared to the eyes of a user and refracting the lighted user eye image to 45 angular degrees. An image processing module(210) obtains a central point of the pupil in the user eye image by operating a selected algorithm and maps the central point of the pupil to a display screen plane of a display device(300) through a predetermined conversion function. The image obtaining module includes an infrared lighting unit(110) irradiating the infrared to the eyes, an infrared refractor(120) refracting the eye image lighted by the infrared, and a small camera(130) capturing the eye image refracted to 45 angular degrees. The image obtaining module is installed to at least one of glasses, a safety goggle, a helmet, and a supporter.
Abstract:
A data input device using finger movement is provided to enable convenient data input by recognizing vibrations of wrist muscle of a user. A data input device displays a phoneme on an each joint of a finger of a user(301) using a red laser diode, and initiates a data input(302). The data input device confirms whether a movement of a thumb is detected or not(303). If the movement of the thumb is detected, the data input device increases the number of movements of the thumb(304). The data input device confirms whether the movement of the thumb is stopped or not(305). The data input device confirms whether the input from the user is canceled or not(306). If a phoneme is not inputted for a predetermined time period, the data input device requests the user to re-input data(309). If a phoneme is inputted, the data input device increases the number of movements of the finger which the movement is detected(310). The data input device checks whether the movement detected finger stopped the movement(311). The data input device confirms whether the input request to input a phoneme is canceled or not(313).