-
-
公开(公告)号:KR1020170134178A
公开(公告)日:2017-12-06
申请号:KR1020170000870
申请日:2017-01-03
Applicant: 한국전자통신연구원
IPC: H04N21/236 , H04N21/43 , H04N21/434 , H04N21/435 , G01N33/00
Abstract: 가상현실시스템에서전자코 장비의능력표현과인식된냄새의전달을위한표현방법에관한것으로후각정보생성장치및 생성방법이제공된다. 본원발명의일 실시예는전자코(Electronic Nose)에서감지되는화학물질의농도(Gas Density) 대비인간이인지하는강도(Strength)를측정하여디지털화하는구성이다. 본원발명의또 다른일 실시예는전자코에서감지되는물질의유해성(Harmfulness)에대한정량적인지표를표현하는구성이다. 상기후각정보생성방법은모두 XML 포맷을가진형태로정보화하는구성이며이를통해실제후각으로감지하는냄새의종류, 감지하는데필요한시간및 신체의후각기관의피로도등을디지털화하여실제인체후각기관의작용에대응하도록디지털화하여표현하는구성이다.
Abstract translation: 提供了一种用于表达电子鼻装置的能力并在虚拟现实系统中传达识别的气味的表示方法,并且提供了气味信息生成装置和生成方法。 本发明的一个实施例是用于测量和数字化由人感知的强度相对于由电子鼻感测的化学物质的浓度的配置。 本发明的另一个实施例是表示在电子鼻中感测的物质的危害性的定量指标的配置。 实际的人的鼻子的动作和数字化嗅觉信息生成方法疲劳配置和既此通过对气味的类型所需要的时间,感测和身体的气味,其检测与所述XML格式的形式的信息的实际鼻子,如 并数字化和表示对应。
-
公开(公告)号:KR101383235B1
公开(公告)日:2014-04-17
申请号:KR1020100057396
申请日:2010-06-17
Applicant: 한국전자통신연구원
IPC: G06F3/03
CPC classification number: H04N7/18
Abstract: 본 발명은 시선 추적을 이용한 좌표 입력 장치 및 그 방법에 관한 것으로, 제1 카메라에 의해 촬영되는 제1 영상으로부터 사용자의 동공의 움직임을 추적하는 동공 추적부, 제2 카메라에 의해 촬영되는 제2 영상 내에 위치한 디스플레이 장치 영역을 추적하는 디스플레이 추적부, 및 추적된 상기 동공의 움직임을 상기 제2 영상의 상기 디스플레이 장치 영역에 맵핑시키고, 맵핑된 상기 동공의 움직임에 따라 취득된 위치 정보를 상기 제2 영상의 상기 디스플레이 장치 영역에 대응하는 공간 좌표로 변환하는 공간 좌표 변환부를 포함한다. 본 발명에 따르면, 최소 두 대 이상의 카메라를 이용하여 촬영된 사용자의 동공과 사용자의 전방 영상으로부터 사용자의 가시 영역 내에서 동공의 위치 이동에 따른 시선을 추적하여 공간 좌표로 변환함으로써, 머리 움직임 또는 화면의 해상도에 구애 받지 않고도 사용자가 바라보는 곳을 추적하는 것이 가능한 이점이 있다.
-
公开(公告)号:KR1020140004335A
公开(公告)日:2014-01-13
申请号:KR1020120071660
申请日:2012-07-02
Applicant: 한국전자통신연구원
CPC classification number: G06F3/03545 , G06F3/0425 , G03B21/00 , G06F3/017 , G06F3/0304 , G06F3/0346 , G06K9/46
Abstract: Disclosed are a user interface device for projection computer capable of providing interaction between a user and a projection computer using an infrared light pen and hands from a projection computer providing an output using a project and a method for interfacing using the same. The user interface device for projection computer comprises: a projector providing an output of a projection computer; a pattern light generating unit for outputting infrared pattern lights in an output area in which an output is outputted; a camera for photographing an output outputting area to acquire an image; an image processing unit for recognizing at least one among a hand and an infrared light pen based on the image acquired from the camera; and a controller for controlling the image processing unit, camera, and pattern light generating unit based on a recognition mode. [Reference numerals] (110) Projector part; (120) Pattern light generation part; (130) Camera part; (140) Synchronization part; (150) Image process part; (160) Control part
Abstract translation: 公开了一种用于投影计算机的用户界面装置,其能够使用红外光笔和投影计算机提供使用项目提供输出的投影计算机的投影计算机之间的交互以及使用该投影计算机进行接口的方法。 用于投影计算机的用户界面装置包括:提供投影计算机的输出的投影仪; 图案光发生单元,用于在输出输出的输出区域中输出红外图案光; 用于拍摄输出输出区域以获取图像的相机; 图像处理单元,用于基于从照相机获取的图像识别手和红外线笔中的至少一个; 以及用于基于识别模式控制图像处理单元,照相机和图案光生成单元的控制器。 (附图标记)(110)投影仪部分; (120)图案光生成部; (130)相机部件; (140)同步部分; (150)图像处理部分; (160)控制部
-
公开(公告)号:KR1020130070340A
公开(公告)日:2013-06-27
申请号:KR1020110137611
申请日:2011-12-19
Applicant: 한국전자통신연구원
CPC classification number: G06K9/00288 , G06T7/579 , G06T2207/10021 , G06T2207/30201
Abstract: PURPOSE: An optical flow processing accelerator in motion recognition and a method thereof are provided to reduce an image used for an optical flow technique to a part of the whole image, thereby accelerating speed of a system. CONSTITUTION: A face recognition unit(300) recognizes a face in a stereoscopic image. A depth information processing unit(500) calculates depth information of the face based on information of the face. When the recognized face is moved, a face tracing unit(400) traces a size and a shape of the face corresponding to a movement direction. A control unit(600) generates the depth information of the face by control of the face recognition unit, the face tracing unit, and the depth information processing unit. [Reference numerals] (100) Stereo camera; (200) Image input unit; (300) Face recognition unit; (400) Face tracing unit; (500) Depth information processing unit; (600) Control unit
Abstract translation: 目的:提供运动识别中的光流处理加速器及其方法,以将用于光流技术的图像减少到整个图像的一部分,从而加速系统的速度。 构成:面部识别单元(300)识别立体图像中的脸部。 深度信息处理单元(500)基于面部的信息计算面部的深度信息。 当识别的脸部被移动时,脸部跟踪单元(400)跟踪与移动方向相对应的面部的尺寸和形状。 控制单元(600)通过面部识别单元,面部追踪单元和深度信息处理单元的控制来生成脸部的深度信息。 (附图标记)(100)立体相机; (200)图像输入单元; (300)脸部识别单元; (400)面部跟踪单元; (500)深度信息处理单元; (600)控制单元
-
公开(公告)号:KR1020130020337A
公开(公告)日:2013-02-27
申请号:KR1020110082921
申请日:2011-08-19
Applicant: 한국전자통신연구원
CPC classification number: G06F3/017 , G06F3/0304 , G06F3/0346 , G06K9/46
Abstract: PURPOSE: A user interaction device and a method thereof are provided to quickly and easily perform image recognition under the output of a projector and enable precise recognition such as a touch and the tracing of a finger even under a light source of the projector. CONSTITUTION: An infrared pattern image generating unit(110) generates an infrared pattern image and an image output unit(120) outputs an image including the infrared pattern image. A pattern image capturing unit(130) captures the infrared pattern image from the image. An image recognizing unit(152) performs image processing for the infrared pattern image to recognize user input. A control unit generates an event based on the user input to control an application program or deliver the event to the application program. The infrared pattern image generating unit includes a laser unit and a diffraction grid unit. [Reference numerals] (112) Laser unit; (114) Diffraction grating unit; (120) Image output unit; (130) Frame capturing unit; (140) Visible image capturing unit; (152) Image recognizing unit; (154) Event generating unit; (156) Application program unit
Abstract translation: 目的:提供用户交互装置及其方法,以便在投影仪的输出下快速且容易地执行图像识别,并且能够进行精确识别,例如即使在投影仪的光源下,手指的触摸和跟踪。 构成:红外图案图像生成单元(110)生成红外图案图像,图像输出单元(120)输出包括红外图案图像的图像。 图案图像拍摄单元(130)从图像捕获红外图案图像。 图像识别单元(152)对红外图案图像执行图像处理以识别用户输入。 控制单元基于用户输入生成事件以控制应用程序或将事件传递到应用程序。 红外图案图像生成单元包括激光单元和衍射栅格单元。 (附图标记)(112)激光单元; (114)衍射光栅单元; (120)图像输出单元; (130)帧捕获单元; (140)可见图像捕获单元; (152)图像识别单元; (154)事件生成单元; (156)应用程序单元
-
公开(公告)号:KR101234111B1
公开(公告)日:2013-02-19
申请号:KR1020090097330
申请日:2009-10-13
Applicant: 한국전자통신연구원
Abstract: 손가락이나 손의 움직임만으로 시스템에 입력을 전달할 수 있는 비접촉 입력 인터페이싱 장치 및 그 방법이 개시된다. 본 발명에 따른 비접촉 입력 인터페이싱 장치는 사용자의 손 움직임을 측정하는 제1 센서; 상기 사용자의 손가락 움직임을 측정하는 제2 센서; 상기 손 움직임으로부터 기설정된 손 제스쳐를 감지하는 손 제스쳐 감지부; 상기 손가락 움직임으로부터 기설정된 손가락 제스쳐를 감지하는 손가락 제스쳐 감지부; 및 상기 손 제스쳐 및 상기 손가락 제스쳐 중 어느 하나 이상에 기반하여 상기 사용자에 의한 입력 신호를 생성하는 입력 신호 생성부를 포함한다. 따라서, 사용자가 작은 동작만으로도 쉽고 정확하게 시스템으로 입력을 전달할 수 있고, 마우스 등의 사용이 어려운 특수 환경에서도 효과적인 입력 인터페이싱이 가능하다.
비접촉 공간입력, 제스쳐, 입력 인터페이스-
公开(公告)号:KR101234094B1
公开(公告)日:2013-02-19
申请号:KR1020090094015
申请日:2009-10-01
Applicant: 한국전자통신연구원
Abstract: 본 발명은 촉각 피드백을 제공하는 모션 기반 포인팅 장치 및 그 제어방법에 관한 것으로서, 사용자의 움직임을 감지하는 동작 감지부와, 상기 사용자에게 촉각 피드백을 제공하기 위한 촉각 출력부를 구비한 포인팅 수단, 및 상기 포인팅 수단에 의해 감지된 상기 사용자의 움직임으로부터 화면에 표시되는 포인터를 조작하고, 상기 포인터의 움직임 및 상기 포인터의 조작에 따른 화면 변화에 따라 대응하는 촉각 정보를 상기 포인팅 수단으로 출력하는 단말 수단을 포함하며, 상기 포인팅 수단은, 상기 단말 수단으로부터 출력된 촉각 정보에 따라 촉각 출력하도록 한다. 본 발명에 따르면, 화면상의 물체, 그래픽 사용자 인터페이스 요소들을 손의 움직임을 통해서 조작할 수 있도록 하는 동시에 촉각적인 느낌을 느끼도록 하여 시각정보에만 의존하던 포인팅 장치의 조작을 사용자 인터페이스에 촉각 피드백 기능을 부여함으로써 사용성 및 사용자의 인식률을 증대시키는 효과가 있다.
-
公开(公告)号:KR1020120139264A
公开(公告)日:2012-12-27
申请号:KR1020110058979
申请日:2011-06-17
Applicant: 한국전자통신연구원
CPC classification number: G06F3/042 , G01D5/268 , G01L1/243 , G01L9/0077 , G06F3/0421 , G06F2203/04109 , G06F3/0412
Abstract: PURPOSE: A pressure sensing apparatus using an optical waveguide line and method thereof are provided to sense the strength and location of pressure by sensing the strength and location of the pressure according to the variation rate of light quantity. CONSTITUTION: A light source unit(110,120) radiates light. A light guide line panel(200) emits the radiated light to the outside through a plurality of light penetration areas. The light guide line panel converts light quantity which is totally reflected according to pressure applied to one or more light penetration areas. Detectors(310,320) sense the light quantity. An analysis unit(400) determines the location and strength of the pressure according to the sensed light quantity. [Reference numerals] (400) Analysis unit
Abstract translation: 目的:提供一种使用光波导线的压力感测装置及其方法,通过根据光量的变化率感测压力的强度和位置来感测压力的强度和位置。 构成:光源单元(110,120)辐射光。 导光线面板(200)通过多个透光区域将辐射光发射到外部。 导光线面板转换根据施加到一个或多个光穿透区域的压力而被全反射的光量。 检测器(310,320)感测光量。 分析单元(400)根据所感测的光量确定压力的位置和强度。 (附图标记)(400)分析单元
-
公开(公告)号:KR1020120066300A
公开(公告)日:2012-06-22
申请号:KR1020100127564
申请日:2010-12-14
Applicant: 한국전자통신연구원
CPC classification number: G06K9/00335 , G06T7/207 , G06T7/285 , G06T7/593 , G06T2207/10021 , G06T2207/20016 , G06T2207/30196
Abstract: PURPOSE: A three dimensional gesture processing method is provided to perform feature-based stereo matching method. CONSTITUTION: A three dimensional gesture processing method comprises: a searching feature points from reference image(S101); a step of tracing the position of the searched feature point from a comparing image by an optical flow method(S103); and a step of repeating the steps in case of presence of a frame(S105).
Abstract translation: 目的:提供三维手势处理方法,以执行基于特征的立体匹配方法。 构成:三维手势处理方法,包括:从参考图像中搜索特征点(S101); 通过光流法从比较图像中追踪搜索到的特征点的位置的步骤(S103); 以及在存在帧的情况下重复步骤的步骤(S105)。
-
-
-
-
-
-
-
-
-