Abstract:
PURPOSE: A user interface method using a bone conduction method and a system using the same are provided to apply system commands without using a hand by implementing a UI(User Interface) based on a pattern related to tooth. CONSTITUTION: A first input sensor(121) is fixed at a head side and generates a first input signal by sensing bone conduction sound generated from the head side. A second input sensor(122) is fixed at other head side and generates a second input signal by sensing the bone conduction sound generated from the head side. A supporting unit fixes the first and the second sensors on the head. A control unit(100) outputs and generates a command signal corresponding to a tooth collision pattern by receiving the first and the second input signals. The control unit includes a pattern recognition unit(133) and a command discrimination unit(135) generating the command signal corresponding to the tooth collision pattern. [Reference numerals] (121) First input sensor; (122) Second input sensor; (131) Filter unit; (133) Pattern recognition unit; (135) Command discrimination unit;
Abstract:
터치스크린 입력방법, 이를 위한 장치 및 이를 포함하는 사용자 단말이 제공된다. 본 발명에 따른 터치스크린 입력방법은 상기 터치스크린 터치여부가 제 1 판단되는 단계; 터치 시 발생하는 터치스크린의 움직임에 따라 상기 터치스크린으로부터 소정 간격으로 이격된 입력부재가 상기 터치스크린에 접촉하는지 여부가 제 2 판단되는 단계; 및 제 1 판단 결과 및 제 2 판단 결과 조합에 따라 상기 사용자 단말에 대한 인터페이스 명령이 수행되는 단계를 포함하는 것을 특징으로 하며, 본 발명에 따른 터치스크린 입력방법 및 장치는 종래의 터치스크린에 기반한 터치 입력 모드와 함께 입력버튼과 사용자 단말 또는 터치스크린의 접촉을 통한 클릭여부를 판단하는 클릭입력 모드를 함께 사용한다. 이로써 통상의 터치라 하여도, 클릭된 상태에서 터치스크린의 터치가 수행되었는지 여부에 따라 서로 다른 인터페이스 수행이 가능하다. 또한, 터치 입력 후 사용자에게 소정의 촉각정보를 주는 종래 기술과 달리, 본 발명은 단말에 구비된 클릭버튼을 통하여 실제의 물리적 버튼 피드백을 표현할 수 있는 장점이 있다.
Abstract:
본 발명은 어안렌즈를 이용한 증각현실 구현 장치 및 그 방법에 관한 것으로서, 보다 구체적으로는 모바일 디바이스를 기울기에 상관없이 정면 시각을 확보할 수 있도록 어안렌즈를 사용하여 주변 시각의 데이터를 모두 확보한 후, 타원체의 구면기하를 이용한 왜곡 보정 알고리즘을 통해 왜곡된 형상을 바로잡고, 기울기에 따라 영상의 일부분을 사용자에게 표시하는 장치 및 그 제공 방법에 관한 것이다.
Abstract:
본 발명은 어안렌즈를 이용한 증각현실 구현 장치 및 그 방법에 관한 것으로서, 보다 구체적으로는 모바일 디바이스를 기울기에 상관없이 정면 시각을 확보할 수 있도록 어안렌즈를 사용하여 주변 시각의 데이터를 모두 확보한 후, 타원체의 구면기하를 이용한 왜곡 보정 알고리즘을 통해 왜곡된 형상을 바로잡고, 기울기에 따라 영상의 일부분을 사용자에게 표시하는 장치 및 그 제공 방법에 관한 것이다.
Abstract:
소리를 이용한 터치세기 검출방법, 이를 위한 입력장치 및 사용자 단말이 제공된다. 본 발명에 따른 소리를 이용한 터치세기 검출방법은 터치스크린과 입력장치의 접촉에 따라 발생하는 소리를 이용하는 것을 특징으로 하며, 본 발명은 터치스크린과 입력수단과의 접촉 및 이동에 따라 발생하는 긁힘(스크래치) 소리를 터치 세기 측정을 위한 변수로 활용한다. 따라서, 터치스크린 종류와 관계없이 터치 세기의 검출이 가능하다. 더 나아가, 본 발명의 또 다른 일 실시예에서는 마이크와 같은 별도의 소리검출수단이 스타일러스 펜에 구비되며, 입력수단과 터치스크린의 접촉에 따라 발생하는 고유 주파수 영역의 소리가 마이크와 같은 소리검출수단에 의하여 검출, 터치 세기 결정 변수로 활용된다. 이로써 주변 소음에도 불구하고, 터치스크린과 입력수단의 접촉 소리에 따른 터치세기를 정확하게 추출할 수 있다.
Abstract:
PURPOSE: A learning content providing method and system using a social network service are provided to induce voluntary learning and to increase a positive learning effect through a system design based on narcissism. CONSTITUTION: Learning behavior and learning content information of a first user are stored(S410). A first user terminal delivers the learning behavior and learning content information to a micro-blogging server(S420). Corresponding learning contents and the learning behavior and learning content information are delivered to a second user terminal(S430). Learning behavior and learning content information which the second terminal learns are delivered to the micro-blogging server(S440). [Reference numerals] (AA) Start; (BB) End; (S410) A learning content is requested from a first user and is delivered to a user terminal and learning content information of the first user and learning type are stored; (S420) The learning content information of the first user and the learning type are delivered to a microblog server; (S430) A learning content is requested from a second user and is delivered to the user terminal and learning content information of the second user and learning type are stored; (S440) The learning content information of the second user and learning type are delivered to the microblog server
Abstract:
PURPOSE: An object recognition table top interface device through weight and a supplying method thereof are provided to distinguish an object in a table top interface without additional hardware of an object. CONSTITUTION: A weight sensing sensor(20) measures weight of an object on a touch panel. A processing unit(30) collects location information of the object from the touch panel. The processing unit collects weight information of the object from the weight sensing sensor. A storing unit generates identify corresponding to the weight information of the object.
Abstract:
본 발명은 전도성 클릭 버튼을 이용한 터치스크린 입력 장치, 전도성 클릭 버튼을 이용한 터치스크린 입력 장치가 포함된 전자기기 신호 입력 시스템 및 전도성 클릭 버튼을 이용한 터치스크린 입력 장치가 포함된 전자기기 신호 입력 방법에 관한 것으로서, 터치스크린의 인터페이스 유연성(inflexibility)을 해치지 않으면서, 시각 자유 인터렉션이 가능하도록 터치스크린에 사용자가 직접적으로 흡착하는 전도성 클릭 버튼을 이용한 터치스크린 입력 장치, 전도성 클릭 버튼을 이용한 터치스크린 입력 장치가 포함된 전자기기 신호 입력 시스템 및 전도성 클릭 버튼을 이용한 터치스크린 입력 장치가 포함된 전자기기 신호 입력 방법에 관한 것이다.
Abstract:
PURPOSE: A touch screen input apparatus, electronic apparatus signal input system, and method thereof are provided to reduce input errors and to improve efficiency by adding physical conditions without adding costs. CONSTITUTION: A absorbing head unit(20) includes a conductive member(10). A click button includes a conductive pressure unit(11) which is conducted to the conductive member and is provided to the absorbing head unit. An absorbing unit(30) fixes the absorbing head unit to a touch screen. The conductive member connects the upper unit of the absorbing head unit to the conductive pressure unit and is pressurized with the conductive pressure unit. The lower unit of the absorbing head unit is exposed, does not connect to the touch screen in a release state, and connects to the touch screen in an operation state.
Abstract:
PURPOSE: A navigation guiding information expression system and a method thereof are provided to rapidly transmit various information related to wheel steering and steering according to patterns different each other because an expression with a touch sensation channel of the vibration is possible when expressing the information from a navigation terminal with the vibration. CONSTITUTION: A navigation guiding information expression system is as follows. Navigation guiding information is transmitted to a mobile device(10) from a navigation(20). The mobile device is controlled to generate vibration according to vibration patterns corresponding to the information. The navigation guiding information is at least one among a direction guide, a speed guide, and a warning guide. The vibration patterns are a time series arrangement. A switching cycle of an on-off state of the vibration patterns is diminished as a target distance diminishes The vibration patterns can be corrected according to a user.