-
公开(公告)号:KR101249736B1
公开(公告)日:2013-04-03
申请号:KR1020090084115
申请日:2009-09-07
Applicant: 한국전자통신연구원
CPC classification number: A41D1/005 , A41D27/205
Abstract: 본 발명은, 휴대 단말과 비접촉식 자기장 통신을 수행하는 자기장 인터페이스 의복에 관한 것으로서, 휴대 단말이 수납되며, 휴대 단말의 코일부와 대면하는 위치에서 휴대 단말의 코일부와 비접촉식 자기장 통신을 수행하는 코일부가 형성된 수납부를 포함하고, 수납부에 형성된 코일부는 제1코일 및 제2코일을 구비하고, 제1코일 및 제2코일은 서로 다른 권선방향을 갖도록 수납부에 형성되어 있는 것을 특징으로 한다.
자기장, 전도, 통신, 웨어러블, 휴대 단말, 의복, 직물-
公开(公告)号:KR1020120056105A
公开(公告)日:2012-06-01
申请号:KR1020100117647
申请日:2010-11-24
Applicant: 한국전자통신연구원
Abstract: PURPOSE: A multiple sensing interface apparatus based on surface change is provided to convert three-dimensional space information according to output modality characteristic of space information. CONSTITUTION: An experience space/object information generating/managing unit(20) generates a data space of types of space/object. An ROI(Region Of Interest) selecting unit(40) determines an expression range of the space/object within a set interest area. An I/O(Input/Output) sense information converting unit(60) converts structure information of the space/object according to output modality characteristics. A multi sense stimulation I/O unit(70) processes input/output of the sensing characteristic.
Abstract translation: 目的:提供基于表面变化的多感测接口设备,以根据空间信息的输出模态特性来转换三维空间信息。 构成:经验空间/对象信息生成/管理单元(20)生成空间/对象类型的数据空间。 ROI(感兴趣区域)选择单元(40)确定设定兴趣区域内的空间/物体的表达范围。 I / O(输入/输出)感测信息转换单元根据输出模态特性转换空间/物体的结构信息。 多感测刺激I / O单元(70)处理感测特性的输入/输出。
-
公开(公告)号:KR1020110070331A
公开(公告)日:2011-06-24
申请号:KR1020090127124
申请日:2009-12-18
Applicant: 한국전자통신연구원
CPC classification number: G06F1/163 , G06F3/017 , G06F3/014 , G06F3/0346
Abstract: PURPOSE: An UI device based on wearable computing environment and a method thereof are provided to use with an input of a wearable system or the peripheral device by recognizing and processing the movement of a hand within a 3D space in front of a user as a 3D pattern. CONSTITUTION: A sensor unit(110) is comprised of a sensor worn to a user and outputs sensing signals according to the location change of a hand or the movement of a finger. A signal processing unit(120) outputs a user instruction corresponding to 3D(Dimensional) coordinates of the hand and the movement of the finger from the sensing signals, and controls an application program executing in a target device. The sensor unit comprises a motion sensor(111) and a finger movement sensor(113).
Abstract translation: 目的:提供一种基于可穿戴计算环境的UI设备及其方法,用于通过识别和处理用户前面的3D空间内的手的移动来与可穿戴系统或外围设备的输入一起使用,作为3D 模式。 构成:传感器单元(110)由佩戴在用户身上的传感器组成,并根据手的位置变化或手指的移动输出感测信号。 信号处理单元(120)从感测信号输出对应于手的3D(尺寸)坐标和手指的移动的用户指令,并且控制在目标设备中执行的应用程序。 传感器单元包括运动传感器(111)和手指运动传感器(113)。
-
公开(公告)号:KR100955316B1
公开(公告)日:2010-04-29
申请号:KR1020070131826
申请日:2007-12-15
Applicant: 한국전자통신연구원
CPC classification number: H04L12/12 , H04L12/282 , H04L67/125 , H04L67/36 , Y02D50/40 , Y02D50/42
Abstract: 본 발명은 원격제어 기능을 가지는 멀티모달 융합장치 및 방법에 관한 것이다. 즉, 발명에서는 가정 또는 특정 공간내 존재하는 다수의 전자기기를 원격 제어함에 있어서, 리모콘과 같은 하나의 입력장치를 이용하는 것이 아니라, 사용자에게 친숙한 음성, 제스처 등과 같은 멀티모달 명령어로 제어하는 방식으로 다양한 전자기기를 동일한 방법으로 제어할 수 있으며, 새로운 전자기기가 추가되는 경우에도 제어명령어를 자동으로 구성하여 제어 가능하다.
멀티모달, 리모콘, 규칙저장부, 음성, 제스처-
公开(公告)号:KR100931306B1
公开(公告)日:2009-12-11
申请号:KR1020070128039
申请日:2007-12-11
Applicant: 한국전자통신연구원
Abstract: A remote controller with a wireless telephone capable of a video call for changing a mode by using a sensor and a using method thereof are provided to associate the remote controller with a wireless telephone with a TV, thereby chatting with a partner through both voice and video. A/V(Audio/Video) input modules(134,138) receive A/V data from a user for a video call. A WLAN(Wireless Local Area Network) module(140) wirelessly transmits and receives the A/V data to transmit the A/V data to an AP(Access Point). The WLAN module receives the A/V data from a counterpart AP. An infrared transmitting module(136) transmits an infrared signal for TV control. A sensor module(132) performs conversion to a phone or remote controller mode according to sensor data.
Abstract translation: 提供一种具有能够通过使用传感器来改变模式的视频呼叫的无线电话的遥控器及其使用方法,以将遥控器与具有TV的无线电话相关联,从而通过语音和视频两者与对方聊天 。 A / V(音频/视频)输入模块(134,138)从用户接收视频呼叫的A / V数据。 WLAN(无线局域网)模块(140)无线地发送和接收A / V数据以将A / V数据发送到AP(接入点)。 WLAN模块接收来自对方AP的A / V数据。 红外发射模块(136)发射用于TV控制的红外信号。 传感器模块(132)根据传感器数据执行到电话或遥控器模式的转换。
-
公开(公告)号:KR100860407B1
公开(公告)日:2008-09-26
申请号:KR1020060122665
申请日:2006-12-05
Applicant: 한국전자통신연구원
Abstract: 본 발명은 멀티모달 융합 처리 방법 및 그 장치에 관한 것으로, 다종의 사용자 입력 모달리티 융합 추론이 쉽고 간편하게 수행되도록 하기 위하여, 단일 또는 다종의 사용자 입력 인식 정보를 해당 인식기를 통해 제공받아 추론 가능한 정보로 가공하는 입력처리부; 모달리티 조합 규칙 정보를 파싱하여 저장하는 규칙저장부; 상기 모달리티 조합 규칙 정보 및 기 생성한 액션을 참조하여, 상기 가공된 사용자 입력 인식 정보가 융합 가능 및 융합 필요 정보인지 여부를 파악하고, 융합 가능하며 필요한 정보인 경우, 상기 가공된 사용자 입력 인식 정보에 대응하는 액션을 추론하는 추론엔진부를 포함하여 구성되며, 이에 의하여 다종의 모달리티에 대한 융합 추론이 소형화된 저사양의 시스템에서 구현되도록 하고, 입력 모달리티의 추가, 시스템의 확장 및 개발이 용이하도록 할 수 있다.
멀티모달 융합-
公开(公告)号:KR1020080051479A
公开(公告)日:2008-06-11
申请号:KR1020060122665
申请日:2006-12-05
Applicant: 한국전자통신연구원
CPC classification number: G06N5/04 , G06F3/16 , G06F17/30917 , G06F17/30941
Abstract: A device and a method for processing multimodal fusion are provided to infer various kinds of user input modality fusion easily and conveniently in a system including various kinds of modality recognition engines even if the system has a compact and low specification. An input processor(110) processes inferable information by receiving single or various kinds of user input recognition information through voice and gesture recognizers(210,220). A rule storing part(150) stores modality combination rule information by parsing XML(eXtensible Markup Language) type modality combination rule information. An inference engine(120) infers action corresponding to the processed user input recognition information by referring to the modality combination rule information. The XML type modality combination rule information includes a first element defining one action, a second element arranging modalities received as input of the action, a third element presenting a method for combining the arranged input modalities significantly, a fourth element arranging instructions of the modality, a fifth element pointing one instruction, and a sixth element combining many actions.
Abstract translation: 提供一种用于处理多模式融合的装置和方法,用于在包括各种模态识别引擎的系统中容易且方便地推断各种用户输入模态融合,即使系统具有紧凑且低规格。 输入处理器(110)通过经由语音和手势识别器(210,220)接收单个或各种用户输入识别信息来处理可推定信息。 规则存储部分(150)通过解析XML(可扩展标记语言)类型模态组合规则信息来存储模态组合规则信息。 推论引擎(120)通过参考模态组合规则信息推断与处理的用户输入识别信息相对应的动作。 XML类型模态组合规则信息包括定义一个动作的第一元素,排列作为动作的输入接收的模态的第二元素,呈现用于显着地组合排列的输入模态的方法的第三元素,排列模态指令的第四元素, 指向一个指令的第五个元素,以及组合许多动作的第六个元素。
-
公开(公告)号:KR1020080050169A
公开(公告)日:2008-06-05
申请号:KR1020060121051
申请日:2006-12-01
Applicant: 한국전자통신연구원
CPC classification number: G06F3/041 , G06F3/017 , G06F3/0354 , G06F3/043 , G06F3/0488
Abstract: A gesture-based user input method and an apparatus for the same are provided to sense and input picture gestures having letters, figures, marks, and diagrams, thereby selecting and executing specific functions of an electronic device through one picture gesture and inputting letters, figures, marks, and diagrams directly to the electronic device. A gesture-based user input device(20) includes at least one or more gesture pads(21) where picture gestures are drawn, a gesture sensor(22) sensing sound or vibration generated when the picture gestures are drawn on the gesture pads, a gesture storing unit(23) mapping standard data corresponding to each valid gesture to store the valid gestures, a gesture recognizing unit(24) extracting characteristic data by analyzing the sound or vibration and comparing the characteristic data with the mapped standard data for obtaining the valid gesture corresponding to the characteristic data, and a communication unit(25) reporting the obtained valid gesture to an electronic device(30) through the gesture recognizing unit.
Abstract translation: 提供了一种基于手势的用户输入方法及其装置,用于感测和输入具有字母,图形,标记和图表的图像手势,从而通过一个图像手势选择并执行电子设备的特定功能并输入字母,数字 ,标记和图表直接连接到电子设备。 基于手势的用户输入设备(20)包括绘制图片手势的至少一个或多个手势垫(21);手势传感器(22),用于感测当在手势垫上绘制图片手势时产生的声音或振动, 手势存储单元(23)映射与每个有效手势相对应的标准数据以存储有效手势;手势识别单元(24)通过分析声音或振动来提取特征数据,并将特征数据与映射的标准数据进行比较以获得有效的手势 手势对应于特征数据,通信单元(25)通过手势识别单元向电子设备(30)报告所获得的有效手势。
-
公开(公告)号:KR100654183B1
公开(公告)日:2006-12-08
申请号:KR1020050106044
申请日:2005-11-07
Applicant: 한국전자통신연구원
Abstract: A system and a method for inputting characters with voice recognition are provided to enable a user to conveniently input the characters by completing entire character with the voice recognition after a part of the character is inputted through a general input device and user voice corresponding to the character is recognized. An input part(10) inputs a partial character. A voice input part(20) inputs the voice for entire character of the partial character. A voice recognition preprocessor(30) transfers the inputted partial character together with voice analysis information by analyzing the inputted voice. A voice recognizer(40) generates a candidate recognition list by using the partial character received from the voice recognition preprocessor and selects one of recognition candidates by performing a voice recognition process. A screen output part(50) outputs the finally recognized character and the candidate recognition list.
Abstract translation: 提供一种用于输入具有语音识别的字符的系统和方法,以使用户能够通过在通过通用输入设备输入部分字符以及与该字符相对应的用户语音之后用语音识别完成整个字符来方便地输入字符 被认可。 输入部分(10)输入部分字符。 语音输入部分(20)输入部分字符的整个字符的语音。 语音识别预处理器(30)通过分析输入的语音将输入的部分字符与语音分析信息一起传送。 语音识别器(40)通过使用从语音识别预处理器接收的部分字符来生成候选识别列表,并且通过执行语音识别处理来选择识别候选之一。 屏幕输出部分(50)输出最终识别的字符和候选识别列表。
-
50.
公开(公告)号:KR1020050038842A
公开(公告)日:2005-04-29
申请号:KR1020030074126
申请日:2003-10-23
Applicant: 한국전자통신연구원
IPC: G06Q50/10
Abstract: 본 발명은 기존의 HTML 웹 문서를 시각적인 표현과 동시에 청각을 통해 정보 전달과 함께 음성 인터페이스를 제공하기 위한 웹 문서의 자동 변환 방법 및 장치에 관한 것이다. 본 발명은 현재 사용자가 선택한 웹 문서의 시각적인 정보 전달을 제공함과 동시에 하이퍼링크로 연결된 다른 웹 문서의 내용을 음성의 형태로 변환하여 사용자에게 제공함으로써 현재 페이지의 보기와 함께 연결된 다른 페이지로의 이동 없이 연결된 페이지의 내용 부분의 정보를 청력을 통하여 동시에 습득하는 방법과 선택된 메뉴 내용 블록의 음성 인터페이스를 통한 접근 방법을 제안한다. 본 발명은 이동환경 또는 사용자 인터페이스와 표현 능력에 제약을 가지는 단말기에서의 웹 검색에 보다 효율적으로 적용될 수 있다.
본 발명의 변환방법은 음성 컨텐츠로의 변환이 가능한 대상 객체를 추출하는 단계와, 대표 컨텐츠 블록을 추출하여 이를 기반으로 음성 정보 전달 문서를 생성하는 단계, 음성 인터페이스로 동작 가능한 내용 객체 추출 및 음성 객체 생성 단계로 이루어지고, 본 발명의 변환장치는 변환 대상 객체 추출 모듈, 변환 내용 객체 추출 모듈, 대표 컨텐츠 객체 추출 모듈, 음성 문서 생성 모듈 등으로 구성된다.
-
-
-
-
-
-
-
-
-