의복형 컴퓨팅 시스템에서의 직물기반 자기장 인터페이스 의복 및 휴대 단말
    41.
    发明授权
    의복형 컴퓨팅 시스템에서의 직물기반 자기장 인터페이스 의복 및 휴대 단말 有权
    基于纺织的磁场界面服装和可穿戴式计算系统中的移动终端

    公开(公告)号:KR101249736B1

    公开(公告)日:2013-04-03

    申请号:KR1020090084115

    申请日:2009-09-07

    CPC classification number: A41D1/005 A41D27/205

    Abstract: 본 발명은, 휴대 단말과 비접촉식 자기장 통신을 수행하는 자기장 인터페이스 의복에 관한 것으로서, 휴대 단말이 수납되며, 휴대 단말의 코일부와 대면하는 위치에서 휴대 단말의 코일부와 비접촉식 자기장 통신을 수행하는 코일부가 형성된 수납부를 포함하고, 수납부에 형성된 코일부는 제1코일 및 제2코일을 구비하고, 제1코일 및 제2코일은 서로 다른 권선방향을 갖도록 수납부에 형성되어 있는 것을 특징으로 한다.
    자기장, 전도, 통신, 웨어러블, 휴대 단말, 의복, 직물

    표면 변형 기반의 다중 감각 인터페이스 장치 및 방법
    42.
    发明公开
    표면 변형 기반의 다중 감각 인터페이스 장치 및 방법 无效
    用于基于表面改性来连接多重感光的装置及其方法

    公开(公告)号:KR1020120056105A

    公开(公告)日:2012-06-01

    申请号:KR1020100117647

    申请日:2010-11-24

    CPC classification number: G06F3/011 G06F3/016 G06F3/14

    Abstract: PURPOSE: A multiple sensing interface apparatus based on surface change is provided to convert three-dimensional space information according to output modality characteristic of space information. CONSTITUTION: An experience space/object information generating/managing unit(20) generates a data space of types of space/object. An ROI(Region Of Interest) selecting unit(40) determines an expression range of the space/object within a set interest area. An I/O(Input/Output) sense information converting unit(60) converts structure information of the space/object according to output modality characteristics. A multi sense stimulation I/O unit(70) processes input/output of the sensing characteristic.

    Abstract translation: 目的:提供基于表面变化的多感测接口设备,以根据空间信息的输出模态特性来转换三维空间信息。 构成:经验空间/对象信息生成/管理单元(20)生成空间/对象类型的数据空间。 ROI(感兴趣区域)选择单元(40)确定设定兴趣区域内的空间/物体的表达范围。 I / O(输入/输出)感测信息转换单元根据输出模态特性转换空间/物体的结构信息。 多感测刺激I / O单元(70)处理感测特性的输入/输出。

    착용형 컴퓨팅 환경 기반의 사용자 인터페이스 장치 및 그 방법
    43.
    发明公开
    착용형 컴퓨팅 환경 기반의 사용자 인터페이스 장치 및 그 방법 有权
    用于基于可接受计算环境的用户界面的装置及其方法

    公开(公告)号:KR1020110070331A

    公开(公告)日:2011-06-24

    申请号:KR1020090127124

    申请日:2009-12-18

    CPC classification number: G06F1/163 G06F3/017 G06F3/014 G06F3/0346

    Abstract: PURPOSE: An UI device based on wearable computing environment and a method thereof are provided to use with an input of a wearable system or the peripheral device by recognizing and processing the movement of a hand within a 3D space in front of a user as a 3D pattern. CONSTITUTION: A sensor unit(110) is comprised of a sensor worn to a user and outputs sensing signals according to the location change of a hand or the movement of a finger. A signal processing unit(120) outputs a user instruction corresponding to 3D(Dimensional) coordinates of the hand and the movement of the finger from the sensing signals, and controls an application program executing in a target device. The sensor unit comprises a motion sensor(111) and a finger movement sensor(113).

    Abstract translation: 目的:提供一种基于可穿戴计算环境的UI设备及其方法,用于通过识别和处理用户前面的3D空间内的手的移动来与可穿戴系统或外围设备的输入一起使用,作为3D 模式。 构成:传感器单元(110)由佩戴在用户身上的传感器组成,并根据手的位置变化或手指的移动输出感测信号。 信号处理单元(120)从感测信号输出对应于手的3D(尺寸)坐标和手指的移动的用户指令,并且控制在目标设备中执行的应用程序。 传感器单元包括运动传感器(111)和手指运动传感器(113)。

    센서를 이용하여 모드 변경을 수행하는 화상통화 가능한무선 전화기 겸용 리모콘 및 그 이용 방법

    公开(公告)号:KR100931306B1

    公开(公告)日:2009-12-11

    申请号:KR1020070128039

    申请日:2007-12-11

    Abstract: A remote controller with a wireless telephone capable of a video call for changing a mode by using a sensor and a using method thereof are provided to associate the remote controller with a wireless telephone with a TV, thereby chatting with a partner through both voice and video. A/V(Audio/Video) input modules(134,138) receive A/V data from a user for a video call. A WLAN(Wireless Local Area Network) module(140) wirelessly transmits and receives the A/V data to transmit the A/V data to an AP(Access Point). The WLAN module receives the A/V data from a counterpart AP. An infrared transmitting module(136) transmits an infrared signal for TV control. A sensor module(132) performs conversion to a phone or remote controller mode according to sensor data.

    Abstract translation: 提供一种具有能够通过使用传感器来改变模式的视频呼叫的无线电话的遥控器及其使用方法,以将遥控器与具有TV的无线电话相关联,从而通过语音和视频两者与对方聊天 。 A / V(音频/视频)输入模块(134,138)从用户接收视频呼叫的A / V数据。 WLAN(无线局域网)模块(140)无线地发送和接收A / V数据以将A / V数据发送到AP(接入点)。 WLAN模块接收来自对方AP的A / V数据。 红外发射模块(136)发射用于TV控制的红外信号。 传感器模块(132)根据传感器数据执行到电话或遥控器模式的转换。

    멀티모달 융합 처리 방법 및 그 장치
    46.
    发明授权
    멀티모달 융합 처리 방법 및 그 장치 失效
    用于处理多峰融合的装置和方法

    公开(公告)号:KR100860407B1

    公开(公告)日:2008-09-26

    申请号:KR1020060122665

    申请日:2006-12-05

    Abstract: 본 발명은 멀티모달 융합 처리 방법 및 그 장치에 관한 것으로, 다종의 사용자 입력 모달리티 융합 추론이 쉽고 간편하게 수행되도록 하기 위하여, 단일 또는 다종의 사용자 입력 인식 정보를 해당 인식기를 통해 제공받아 추론 가능한 정보로 가공하는 입력처리부; 모달리티 조합 규칙 정보를 파싱하여 저장하는 규칙저장부; 상기 모달리티 조합 규칙 정보 및 기 생성한 액션을 참조하여, 상기 가공된 사용자 입력 인식 정보가 융합 가능 및 융합 필요 정보인지 여부를 파악하고, 융합 가능하며 필요한 정보인 경우, 상기 가공된 사용자 입력 인식 정보에 대응하는 액션을 추론하는 추론엔진부를 포함하여 구성되며, 이에 의하여 다종의 모달리티에 대한 융합 추론이 소형화된 저사양의 시스템에서 구현되도록 하고, 입력 모달리티의 추가, 시스템의 확장 및 개발이 용이하도록 할 수 있다.
    멀티모달 융합

    멀티모달 융합 처리 방법 및 그 장치
    47.
    发明公开
    멀티모달 융합 처리 방법 및 그 장치 失效
    用于处理多模式融合的装置和方法

    公开(公告)号:KR1020080051479A

    公开(公告)日:2008-06-11

    申请号:KR1020060122665

    申请日:2006-12-05

    CPC classification number: G06N5/04 G06F3/16 G06F17/30917 G06F17/30941

    Abstract: A device and a method for processing multimodal fusion are provided to infer various kinds of user input modality fusion easily and conveniently in a system including various kinds of modality recognition engines even if the system has a compact and low specification. An input processor(110) processes inferable information by receiving single or various kinds of user input recognition information through voice and gesture recognizers(210,220). A rule storing part(150) stores modality combination rule information by parsing XML(eXtensible Markup Language) type modality combination rule information. An inference engine(120) infers action corresponding to the processed user input recognition information by referring to the modality combination rule information. The XML type modality combination rule information includes a first element defining one action, a second element arranging modalities received as input of the action, a third element presenting a method for combining the arranged input modalities significantly, a fourth element arranging instructions of the modality, a fifth element pointing one instruction, and a sixth element combining many actions.

    Abstract translation: 提供一种用于处理多模式融合的装置和方法,用于在包括各种模态识别引擎的系统中容易且方便地推断各种用户输入模态融合,即使系统具有紧凑且低规格。 输入处理器(110)通过经由语音和手势识别器(210,220)接收单个或各种用户输入识别信息来处理可推定信息。 规则存储部分(150)通过解析XML(可扩展标记语言)类型模态组合规则信息来存储模态组合规则信息。 推论引擎(120)通过参考模态组合规则信息推断与处理的用户输入识别信息相对应的动作。 XML类型模态组合规则信息包括定义一个动作的第一元素,排列作为动作的输入接收的模态的第二元素,呈现用于显着地组合排列的输入模态的方法的第三元素,排列模态指令的第四元素, 指向一个指令的第五个元素,以及组合许多动作的第六个元素。

    제스처 기반 사용자 입력 방법 및 장치
    48.
    发明公开
    제스처 기반 사용자 입력 방법 및 장치 失效
    基于GESTURE的用户输入的方法和装置

    公开(公告)号:KR1020080050169A

    公开(公告)日:2008-06-05

    申请号:KR1020060121051

    申请日:2006-12-01

    CPC classification number: G06F3/041 G06F3/017 G06F3/0354 G06F3/043 G06F3/0488

    Abstract: A gesture-based user input method and an apparatus for the same are provided to sense and input picture gestures having letters, figures, marks, and diagrams, thereby selecting and executing specific functions of an electronic device through one picture gesture and inputting letters, figures, marks, and diagrams directly to the electronic device. A gesture-based user input device(20) includes at least one or more gesture pads(21) where picture gestures are drawn, a gesture sensor(22) sensing sound or vibration generated when the picture gestures are drawn on the gesture pads, a gesture storing unit(23) mapping standard data corresponding to each valid gesture to store the valid gestures, a gesture recognizing unit(24) extracting characteristic data by analyzing the sound or vibration and comparing the characteristic data with the mapped standard data for obtaining the valid gesture corresponding to the characteristic data, and a communication unit(25) reporting the obtained valid gesture to an electronic device(30) through the gesture recognizing unit.

    Abstract translation: 提供了一种基于手势的用户输入方法及其装置,用于感测和输入具有字母,图形,标记和图表的图像手势,从而通过一个图像手势选择并执行电子设备的特定功能并输入字母,数字 ,标记和图表直接连接到电子设备。 基于手势的用户输入设备(20)包括绘制图片手势的至少一个或多个手势垫(21);手势传感器(22),用于感测当在手势垫上绘制图片手势时产生的声音或振动, 手势存储单元(23)映射与每个有效手势相对应的标准数据以存储有效手势;手势识别单元(24)通过分析声音或振动来提取特征数据,并将特征数据与映射的标准数据进行比较以获得有效的手势 手势对应于特征数据,通信单元(25)通过手势识别单元向电子设备(30)报告所获得的有效手势。

    음성 인식을 이용한 문자 입력 시스템 및 그 방법
    49.
    发明授权
    음성 인식을 이용한 문자 입력 시스템 및 그 방법 有权
    음성인식을이용한문자입력시스템및그방법

    公开(公告)号:KR100654183B1

    公开(公告)日:2006-12-08

    申请号:KR1020050106044

    申请日:2005-11-07

    Abstract: A system and a method for inputting characters with voice recognition are provided to enable a user to conveniently input the characters by completing entire character with the voice recognition after a part of the character is inputted through a general input device and user voice corresponding to the character is recognized. An input part(10) inputs a partial character. A voice input part(20) inputs the voice for entire character of the partial character. A voice recognition preprocessor(30) transfers the inputted partial character together with voice analysis information by analyzing the inputted voice. A voice recognizer(40) generates a candidate recognition list by using the partial character received from the voice recognition preprocessor and selects one of recognition candidates by performing a voice recognition process. A screen output part(50) outputs the finally recognized character and the candidate recognition list.

    Abstract translation: 提供一种用于输入具有语音识别的字符的系统和方法,以使用户能够通过在通过通用输入设备输入部分字符以及与该字符相对应的用户语音之后用语音识别完成整个字符来方便地输入字符 被认可。 输入部分(10)输入部分字符。 语音输入部分(20)输入部分字符的整个字符的语音。 语音识别预处理器(30)通过分析输入的语音将输入的部分字符与语音分析信息一起传送。 语音识别器(40)通过使用从语音识别预处理器接收的部分字符来生成候选识别列表,并且通过执行语音识别处理来选择识别候选之一。 屏幕输出部分(50)输出最终识别的字符和候选识别列表。

    시각과 청각을 통한 동시 정보 전달과 음성 인터페이스를제공하는 웹 컨텐츠로의 자동 변환 방법 및 장치

    公开(公告)号:KR1020050038842A

    公开(公告)日:2005-04-29

    申请号:KR1020030074126

    申请日:2003-10-23

    Abstract: 본 발명은 기존의 HTML 웹 문서를 시각적인 표현과 동시에 청각을 통해 정보 전달과 함께 음성 인터페이스를 제공하기 위한 웹 문서의 자동 변환 방법 및 장치에 관한 것이다. 본 발명은 현재 사용자가 선택한 웹 문서의 시각적인 정보 전달을 제공함과 동시에 하이퍼링크로 연결된 다른 웹 문서의 내용을 음성의 형태로 변환하여 사용자에게 제공함으로써 현재 페이지의 보기와 함께 연결된 다른 페이지로의 이동 없이 연결된 페이지의 내용 부분의 정보를 청력을 통하여 동시에 습득하는 방법과 선택된 메뉴 내용 블록의 음성 인터페이스를 통한 접근 방법을 제안한다. 본 발명은 이동환경 또는 사용자 인터페이스와 표현 능력에 제약을 가지는 단말기에서의 웹 검색에 보다 효율적으로 적용될 수 있다.
    본 발명의 변환방법은 음성 컨텐츠로의 변환이 가능한 대상 객체를 추출하는 단계와, 대표 컨텐츠 블록을 추출하여 이를 기반으로 음성 정보 전달 문서를 생성하는 단계, 음성 인터페이스로 동작 가능한 내용 객체 추출 및 음성 객체 생성 단계로 이루어지고, 본 발명의 변환장치는 변환 대상 객체 추출 모듈, 변환 내용 객체 추출 모듈, 대표 컨텐츠 객체 추출 모듈, 음성 문서 생성 모듈 등으로 구성된다.

Patent Agency Ranking