손가락 움직임을 이용한 데이터 입력 장치
    1.
    发明授权
    손가락 움직임을 이용한 데이터 입력 장치 失效
    用手指运动输入数据的装置

    公开(公告)号:KR100897526B1

    公开(公告)日:2009-05-15

    申请号:KR1020070095435

    申请日:2007-09-19

    Abstract: 본 발명은 손가락 움직임을 이용한 데이터 입력 장치에 관한 것으로, 사용자 손가락의 움직임에 따른 손목 근육 떨림(신호)을 이용하여 음소, 숫자, 기호 등을 인식함으로써, 사용자로 하여금 보다 편리하게 데이터를 입력할 수 있도록 하기 위한, 손가락 움직임을 이용한 데이터 입력 장치를 제공하고자 한다.
    이를 위하여, 본 발명은 데이터 입력 장치에 있어서, 손가락의 움직임에 따른 손목에 위치한 근육의 떨림 신호를 감지하기 위한 근육 떨림 신호 감지수단, 상기 근육 떨림 신호 감지수단에 의해 감지된 손목 근육의 떨림 신호의 발생 위치에 따라 움직임이 있는 손가락을 구분하고, 손가락의 움직임 횟수에 대한 정보를 획득하기 위한 손가락 정보 획득수단, 및 상기 손가락 정보 획득수단에 의해 획득된 손가락 정보 및 손가락의 움직임 횟수에 해당하는 데이터를 인식하기 위한 인식수단을 포함한다.
    데이터 입력, 문자 입력, 손가락 움직임, 손목 근육 떨림, 손가락 정보 획득

    체감 정보를 이용한 디지털 데이터 태깅 장치, 태깅 및검색서비스 제공 시스템 및 방법
    2.
    发明授权
    체감 정보를 이용한 디지털 데이터 태깅 장치, 태깅 및검색서비스 제공 시스템 및 방법 有权
    数字数据标签设备,标签和搜索服务,通过感官和环境信息提供系统和方法

    公开(公告)号:KR101087134B1

    公开(公告)日:2011-11-25

    申请号:KR1020070127876

    申请日:2007-12-10

    CPC classification number: G06F17/30997

    Abstract: 본 발명은 인간의 감각 기관을 통해 느끼는 감각 센서 데이터 및 환경 센서 데이터를 이용하여 자동으로 추출한 체감 정보를 태그로 생성하여 디지털 데이터에 부여하는 태깅 장치, 이를 이용한 태깅 및 검색 서비스 제공 시스템 및 방법에 관한 것으로서, 카메라나 마이크 이외에 후각 센서, 미각 센서, 촉각 센서 등의 감각 센서와 온도, 습도, 조도, 풍속 등의 환경 센서 등을 통해 인간이 느끼는 체감 정보를 통합적으로 인지하고, 상기 인지된 체감정보를 태그로 디지털 데이터에 자동으로 또는 수동적으로 부여함으로써 차후에 사용자가 체감 정보를 활용하여 보다 효율적이고 풍부하게 디지털 데이터를 검색하고 활용할 수 있도록 하는 효과가 있다.
    체감 정보, 메타데이터, 태그

    체감 정보를 이용한 디지털 데이터 태깅 장치, 태깅 및검색서비스 제공 시스템 및 방법
    3.
    发明公开
    체감 정보를 이용한 디지털 데이터 태깅 장치, 태깅 및검색서비스 제공 시스템 및 방법 有权
    数字标签设备,标签和搜索服务提供系统和方法与感知和环境信息

    公开(公告)号:KR1020090060894A

    公开(公告)日:2009-06-15

    申请号:KR1020070127876

    申请日:2007-12-10

    CPC classification number: G06F17/30997

    Abstract: A digital data tagging apparatus, a tagging and search service providing system by sensory and environmental information, and a method thereof are provided to perform tagging digital data by using sensory information as a tag. A data analyzing module(210) automatically perform image analysis, sound analysis and environment change analysis for transmitted data, and a sensory information recognition module(220) recognizes the sensory information at a point when digital data are generated based on the analyzed data from the data analysis module. A metadata generating module(230) assigns the sensory information to the digital data as tag. The metadata generating module generates the metadata including the recognized sensory information automatically, and stores the generated metadata in a database(240).

    Abstract translation: 数字数据标签装置,通过感觉和环境信息的标签和搜索服务提供系统及其方法被提供以通过使用感觉信息作为标签来执行标记数字数据。 数据分析模块(210)自动对所发送的数据进行图像分析,声音分析和环境变化分析,感知信息识别模块(220)根据来自所述数据分析数据的分析数据,识别在生成数字数据的时刻的感官信息 数据分析模块。 元数据生成模块(230)将感官信息分配给数字数据作为标签。 元数据生成模块自动生成包括识别的感觉信息的元数据,并将生成的元数据存储在数据库(240)中。

    제스처/음성 융합 인식 시스템 및 방법
    4.
    发明公开
    제스처/음성 융합 인식 시스템 및 방법 有权
    用于集成语言和语音的系统和方法

    公开(公告)号:KR1020080050994A

    公开(公告)日:2008-06-10

    申请号:KR1020070086575

    申请日:2007-08-28

    Abstract: A system and a method for integrating recognition of gesture and voice are provided to enhance recognition rate even in gesture with unclear separability by detecting a gesture command section on the basis of an EPD(End Point Detection) value which is a start point of a voice command section. A system for integrating recognition of gesture and voice includes a voice feature extracting unit(210), a gesture feature extracting unit(220), a synchronizing module(230) and an integration recognizing unit(240). The voice feature extracting unit detects a start point and an end point of a command from voice inputted via a mike and extracts voice feature information. The gesture feature extracting unit extracts a command section from gesture in an image captured by a camera by using the start point and the end point detected by the voice feature extracting unit, and extracts gesture feature information. The synchronizing module detects a start point of the gesture from the captured image by using the start point detected by the voice feature extracting unit, and calculates optimal image frames by applying a preset optimal frame number to the detected start point. The integration recognizing unit outputs the extracted voice feature information and gesture feature information with integrated recognition data by using preset learning parameters.

    Abstract translation: 提供用于集成手势和语音识别的系统和方法,以通过基于作为语音起点的EPD(终点检测)值检测手势命令部分,即使在具有不清楚的可分离性的手势中来增强识别率 命令部分。 用于集成手势和语音的识别的系统包括语音特征提取单元(210),手势特征提取单元(220),同步模块(230)和积分识别单元(240)。 声音特征提取单元通过麦克风输入的声音检测命令的起始点和终点,并提取语音特征信息。 手势特征提取单元通过使用由语音特征提取单元检测到的开始点和结束点,通过摄像机拍摄的图像中的手势提取命令部分,并提取手势特征信息。 同步模块通过使用由语音特征提取单元检测的起始点从拍摄图像检测手势的起始点,并通过对检测到的起始点应用预设的最佳帧号来计算最佳图像帧。 集成识别单元通过使用预设的学习参数输出提取的语音特征信息和具有集成识别数据的手势特征信息。

    제스처/음성 융합 인식 시스템 및 방법
    5.
    发明授权
    제스처/음성 융합 인식 시스템 및 방법 有权
    用于集成语言和语音的系统和方法

    公开(公告)号:KR100948600B1

    公开(公告)日:2010-03-24

    申请号:KR1020070086575

    申请日:2007-08-28

    Abstract: 본 발명은 제스처/음성 융합 인식 시스템 및 방법에 관한 것으로, 잡음환경에서 음성과 제스처의 융합을 통해 명령어 인식의 성능을 높이기 위해 입력된 음성 중에서 명령어의 시작점과 끝점을 검출하여 음성특징정보를 추출하는 음성특징추출부, 상기 검출된 시작점과 끝점에 관한 정보를 이용하여 촬영 영상의 제스처로부터 명령구간을 검출하여 제스처특징정보를 추출하는 제스처 특징추출부 및 상기 추출된 음성특징정보와 제스처 특징정보를 기 설정된 학습 파라미터를 이용하여 융합인식 데이터로 출력하는 융합 인식부를 포함하여 구성되어 쉽고 정확하게 사용자의 명령을 인식할 수 있다.
    청각 모델, 융합 인식, 제스처, EPD

    시선 위치 추적 방법 및 그 장치
    6.
    发明授权
    시선 위치 추적 방법 및 그 장치 失效
    跟踪注视的系统和方法

    公开(公告)号:KR100850357B1

    公开(公告)日:2008-08-04

    申请号:KR1020060123178

    申请日:2006-12-06

    Abstract: 본 발명은 시선 위치 추적 방법 및 그 장치에 관한 것으로, 상기 적외선으로 조명된 사용자 눈 영상을 45˚ 굴절시켜 획득하는 영상 획득 모듈; 기 설정된 알고리즘을 구동하여 상기 사용자 눈 영상의 동공 중심점을 획득하고, 상기 동공 중심점이 기 설정된 변환함수를 통해 상기 표시화면 평면에 매핑되도록 하는 영상 처리 모듈을 포함하여 구성하며, 이에 의하여 저사양의 시스템에서도 간편하게 시선 위치 추적을 수행하고, 사용자 동공 상하 움직임에 대한 해상도가 증가된 눈 영상을 획득하고, 다수 환경에서 호환성을 가질 수 있는 효과를 가진다.
    시선 위치 추적, 응시 위치 추적, 동공 중심점, 동공 중심 좌표

    Abstract translation: 提供了一种用于在监视器屏幕上简单地映射目标位置的注视位置跟踪方法和装置。 注视位置跟踪装置包括图像捕获模块和图像处理模块。 图像拍摄模块向用户的眼睛照射红外线,以45°反射照明的眼睛图像,并捕获45°反射的眼睛图像。 图像处理模块通过执行预定算法获得照明眼图像的瞳孔中心点,并通过预定的变换函数将显示装置的显示面上的瞳孔中心点映射。

    시선 위치 추적 방법 및 그 장치
    7.
    发明公开
    시선 위치 추적 방법 및 그 장치 失效
    跟踪大小的系统和方法

    公开(公告)号:KR1020080051664A

    公开(公告)日:2008-06-11

    申请号:KR1020060123178

    申请日:2006-12-06

    Abstract: A system and a method for tracking gaze are provided to increase the accuracy of small and inexpensive equipment, and respond to vertical movement of a user pupil sensitively in a terminal equipped with a display device. An image obtaining module(100) obtains a user eye image refracted to 45 angular degrees by irradiating infrared to the eyes of a user and refracting the lighted user eye image to 45 angular degrees. An image processing module(210) obtains a central point of the pupil in the user eye image by operating a selected algorithm and maps the central point of the pupil to a display screen plane of a display device(300) through a predetermined conversion function. The image obtaining module includes an infrared lighting unit(110) irradiating the infrared to the eyes, an infrared refractor(120) refracting the eye image lighted by the infrared, and a small camera(130) capturing the eye image refracted to 45 angular degrees. The image obtaining module is installed to at least one of glasses, a safety goggle, a helmet, and a supporter.

    Abstract translation: 提供了一种用于跟踪注视的系统和方法,以提高小型和便宜设备的精度,并且在配备有显示装置的终端中灵敏地响应用户瞳孔的垂直移动。 图像获取模块(100)通过向用户的眼睛照射红外线并将点亮的用户眼睛图像折射成45度角度来获得折射到45度角的用户眼睛图像。 图像处理模块(210)通过操作所选择的算法获得用户眼图像中的瞳孔的中心点,并通过预定的转换功能将瞳孔的中心点映射到显示装置(300)的显示屏平面。 图像获取模块包括将红外线照射到眼睛的红外线照明单元(110),折射由红外线照射的眼睛图像的红外线折射器(120)和将眼图像折射到45度角的小型照相机(130) 。 图像获取模块安装在眼镜,安全护目镜,头盔和支架中的至少一个上。

    손가락 움직임을 이용한 데이터 입력 장치
    8.
    发明公开
    손가락 움직임을 이용한 데이터 입력 장치 失效
    用手指移动输入数据的装置

    公开(公告)号:KR1020090030105A

    公开(公告)日:2009-03-24

    申请号:KR1020070095435

    申请日:2007-09-19

    CPC classification number: G06F3/014 G06F3/017 G06F3/14

    Abstract: A data input device using finger movement is provided to enable convenient data input by recognizing vibrations of wrist muscle of a user. A data input device displays a phoneme on an each joint of a finger of a user(301) using a red laser diode, and initiates a data input(302). The data input device confirms whether a movement of a thumb is detected or not(303). If the movement of the thumb is detected, the data input device increases the number of movements of the thumb(304). The data input device confirms whether the movement of the thumb is stopped or not(305). The data input device confirms whether the input from the user is canceled or not(306). If a phoneme is not inputted for a predetermined time period, the data input device requests the user to re-input data(309). If a phoneme is inputted, the data input device increases the number of movements of the finger which the movement is detected(310). The data input device checks whether the movement detected finger stopped the movement(311). The data input device confirms whether the input request to input a phoneme is canceled or not(313).

    Abstract translation: 提供使用手指移动的数据输入装置,以通过识别用户的腕部肌肉的振动来实现方便的数据输入。 数据输入装置使用红色激光二极管在用户(301)的手指的每个关节上显示音素,并且启动数据输入(302)。 数据输入装置确认是否检测到拇指的移动(303)。 如果检测到拇指的移动,则数据输入装置增加拇指的移动次数(304)。 数据输入装置确认拇指的移动是否停止(305)。 数据输入装置确认来自用户的输入是否被取消(306)。 如果在预定时间段内未输入音素,则数据输入装置请求用户重新输入数据(309)。 如果输入了音素,则数据输入装置增加检测到移动的手指的移动数(310)。 数据输入装置检查移动检测手指是否停止移动(311)。 数据输入装置确认输入音素的输入请求是否被取消(313)。

Patent Agency Ranking