Abstract:
PURPOSE: A touch recognition apparatus and a touch recognition method using an optical signal are provided to recognize the contact of hands or an object in the outside and recognize the contact as a touch point. CONSTITUTION: A first reflecting section(130) receives and reflects the optical signal created in a light generating section. A second reflecting section(140) receives the optical signal reflected by the first reflecting section and re-reflects the optical signal. A light receiving section receives the optical signal reflected by the second reflecting section. A controller(300) determines whether the optical signal generated from the light generating section is received from the light receiving section, and recognizes the location of a touch area touched to a transparent plate(200).
Abstract:
다중 사용자의 컴퓨팅 환경 자동 인지 및 최적의 정보 교환 설정을 위한 지능적인 컴퓨팅 장치 에이전트 시스템에 대하여 개시한다. 본 발명의 컴퓨팅 장치 에이전트 시스템은 사용자의 컴퓨팅 환경을 자동으로 감지하고, 상호작용 컴퓨팅 장치 간의 필요한 네트워크 연결 설정 및 정보 교환 유형을 지능적으로 일치시킴으로써, 사용자가 복잡한 네트워크 설정이나 정보 교환에 필요한 여러 단계의 환경 설정 작업 없이 빠르고 편리하게 상호간의 인터랙션을 가능하게 한다.
Abstract:
본 발명은 터치 스크린의 커서 처리 방법에 관한 것으로서, 터치 스크린의 커서 처리 방법에 있어서, 스크린의 x축 방향으로 감지 지점을 전기적인 신호에 의하여 인지하는 단계(a); 스크린의 y축 방향으로 감지 지점을 전기적인 신호에 의하여 인지하는 단계(b); 및 상기 단계(a) 및 단계(b)에 의하여 인지된 인지 지점들을 원주 또는 원안에 포함하는 최대 크기의 외접원을 터치 스크린의 커서로 설정하는 단계(c)를 포함하는 것을 특징으로 한다. 본 발명에 따르면, 적외선 방식의 터치 스크린에 손가락을 접촉시키는 경우와 같이 접촉점이 복수인 멀티 터치의 경우, 사용자의 손가락 입력에 해당되는 최적의 커서를 제공하게 된다. 터치 스크린, 멀티 터치, 커서, 외접원
Abstract:
A system and a method for transmitting data in a multiple computing network environment are provided to transmit the data, which is selected by a touch of a hand in a computer displaying a plurality of data, to a computing device selected by a user. A display unit(10,11) displays data received from a controller(30,31), generates coordinate information corresponding to detected physical stimulus and a touched position by detecting the physical stimulus and the touch of a user, and transfers the coordinate information to the controller. A direction sensing unit(20,21) generates a direction detection signal by detecting a direction of user's hand. The controller recognizes data displayed at the position corresponding to the received coordinate information by receiving the coordinate information from the display unit, and stores the recognized data to a memory(40,41). The controller checks a computing device for requesting the data by the direction detection signal received from the direction sensing unit and transmits a data transfer request signal to the checked computing device through a communication module(50,51).
Abstract:
An intellectual computing device agent system for setting up the exchange of optimum information and the computing environment automatic recognition of multi users is provided to set up necessary environment for indicating information regardless of a state of network connection and a computing device by intellectually selecting information transmission protocol according to kinds of network connection. A database unit(210) receives computing device information and interface equipment information used in a computing device. An interface decision unit(220) recognizes the state of an interface and the computing device stored in the database unit and determines the interface unit. An information transfer protocol decision unit(230) searches an information transfer protocol determined in the interface decision unit and determines the necessary information transfer protocol in the bidirectional information transmission. A communications protocol determining unit(240) determines necessary communication devices and a protocol for connecting network between interface units.
Abstract:
본 발명은 인터렉션 테이블에 관한 것으로서, 다수의 사용자가 테이블에 투영된 이미지를 통해 정보를 입력할 수 있게 구성한 다중 인터랙션용 테이블을 제공하는 데 그 목적이 있다. 상기와 같은 목적을 달성하기 위한 본 발명의 다중 인터랙션용 테이블은 내부가 빈 구조로서 상면은 개방되고 개방된 상면에 스크린이 위치하는 본체와, 상기 본체 내부에 위치하며 상기 스크린을 향해 빛을 투사하는 빔 프로젝트와, 상기 본체의 내부에 위치하며 상기 스크린에 투영된 이미지를 촬영하는 카메라와, 상기 빔프로젝트에 영상정보를 전기적신호로 입력하고 상기 카메라에서 촬영한 영상정보를 전기적신호로 입력 받아 처리하는 컴퓨터를 포함하여 구성된 것을 기술적 특징으로 한다. 인터랙션, 테이블, 빔 프로젝터, 카메라, 스크린
Abstract:
본 발명은 문장 축소 시스템에 관한 것으로, 본 발명에서는 누적·저장되어 있는 여러 유형의 학습 원본-축소 문장 간의 관계를 반복적으로 학습하여, 및 을 생성할 수 있는 전산모듈, SARv에 포함된 단어집합들(어휘들)을 품사로 대체하여, 품사 기반의 문장 축소 규칙(Sentence Abridgement Rule based on the part of speech)을 생성할 수 있는 전산모듈, 입력원으로부터 입력된 원본문장을 학습 템플릿과 비교하여, 매칭되는 단어집합들을 추출한 후, SARs 간의 전후 문맥관계, SARs의 규칙내역 등을 두루 체크하여, 해당 구문들에 적합한 최적의 축소패턴을 결정하고, 이에 상응하는 축소문장을 생성할 수 있는 전산모듈 등을 체계적으로 연동 배치하고, 이를 통해, 원본문장의 축소가 필요한 다양한 사용자 측에서, 문장의 문법적인 연결관계나 논리적인(의미적인) 흐름이 자연스럽게 이어지는 최선의 축소문장을 획득할 수 있도록 가이드 함으로써, 해당 사용자 측에서, 별다른 어려움 없이, 고 품질의 문장축소 서비스를 융통성 있게 향유할 수 있도록 유도할 수 있다.
Abstract:
A system for abridging a sentence is provided to enable a user to use a high quality sentence abridgment service flexibly by providing an optimal abridged sentence naturally connecting a grammatical relation or a semantic flow, as relation between various kinds of original sentences and abridged sentences is repeatedly trained. A template/SAR(Sentence Abridgment Rule) management unit(130) is installed in an information processing device(Z) connected to an original sentence input source(1), generates a plurality of templates and SARv(SAR based on the vocabulary) reflecting the templates by repeatedly training relation between various kinds of original sentences and abridged sentences, and generates SAR based on the part of speech by replacing word sets included in the SARv with corresponding part-of-speech tag syntax. A sentence abridgment executing module(110) generates the abridged sentence of the original sentence by extracting the word sets from the original sentence according to the template, converting the extracted word sets into the part-of-speech tag syntax, and abridging the part-of-speech tag syntax according to an optimal SAR suitable for the part-of-speed tag syntax.
Abstract:
A device and a method for controlling an electronic appliance with hand gesture are provided to enable a user to operate the electronic appliance conveniently in a remote place by the hand gesture through a transmitter, which is worn on a finger or a hand, or held in the hand and transmits a command signal and a receiver which transfers the received signal to an internal circuit of the electronic appliance. A transmitter(11) transmits motion detection information wirelessly by detecting the hand gesture of the user in a state worn on the finger or held in the hand. The receiver recognizes the hand gesture of the user by receiving the motion detection information from the transmitter and controls the electronic appliance by transmitting a control signal corresponding to the hand gesture to an infrared receiver of the electronic appliance in an infrared signal form. The receiver includes a wireless receiver, a motion storing part, a motion analyzer analyzing/recognizing the hand gesture by comparing the received motion information with the motion information stored in the motion storing part, an input result output device, a signal converter, and an infrared signal transmitter.
Abstract:
A GUI device and a method for displaying graphic objects are provided to support progress of a conference by displaying nodes, links among the nodes, and layer structures including the nodes and the links to a display part based on relation among various semantic information included in each node. The first area(102) receives user input to generate the graphic object. An input converter converts the user input into an electric signal and transmits the electric signal to a processor. The second area(106) displays the graphic objects based on a control signal. The graphic object includes the nodes expressing a minimum information unit and the links(420) expressing relation among the nodes by connecting the nodes. The node includes a keyword contracting data expressed by the node. The graphic object includes the layer(430) comprising at least one node and the link connected to the node.