Abstract:
본 발명은 머리의 제스처 및 손의 제스처를 감지하여 컨텐츠를 제어하기 위한 방법에 있어서, (a) 입력된 영상을 분석하여 사용자의 머리 영역 및 손 영역을 검출하는 단계; (b) 컴퓨터 비전 기술을 사용하여 상기 사용자의 머리 영역의 제스처(Gesture) 및 손 영역의 제스처를 추적하는 단계; 및 (c) 상기 추적된 머리 영역의 제스처에 대한 데이터 및 손 영역의 제스처에 대한 데이터를 포함한 제스처 결합 정보를 참조하여 상기 컨텐츠가 제어되도록 하는 단계를 포함하는 것을 특징으로 하는 컨텐츠 제어 방법이 개시된다. 본 발명에 따르면, 키보드, 마우스, 리모컨과 같은 별도의 인터페이스 도구 없이도, 사용자의 머리의 제스처 및 손의 제스처를 이용하여 컨텐츠를 제어할 수 있으므로 다양한 컨텐츠를 편하고, 효과적으로 제공 받을 수 있는 효과를 달성할 수 있다.
Abstract:
본 발명은 동작인식센서(motion recognition sensor)를 이용하여 사용자의 동작을 인식하는 방법에 관한 것으로, 동작인식센서를 이용하여 사용자의 동작을 실시간으로 감지하는 단계, 상기 감지되는 동작을 기 설정된 패턴정보와 비교하여 상기 감지되는 동작이 형성할 동작패턴을 예측하며, 상기 동작패턴은 상기 감지되는 동작이 형성할 도형의 종류 및 상기 감지되는 동작이 종료될 종료시간에 대한 정보를 포함하는 것을 특징으로 하는 단계 및 상기 예측된 종료시간이 도과하면, 상기 예측된 도형의 종류에 대응하는 제어기능을 실행하는 단계를 포함하는 것을 특징으로 한다.
Abstract:
본 발명은 머리의 제스처 및 손의 제스처를 감지하여 컨텐츠를 제어하기 위한 방법에 있어서, (a) 입력된 영상을 분석하여 사용자의 머리 영역 및 손 영역을 검출하는 단계; (b) 컴퓨터 비전 기술을 사용하여 상기 사용자의 머리 영역의 제스처(Gesture) 및 손 영역의 제스처를 추적하는 단계; 및 (c) 상기 추적된 머리 영역의 제스처에 대한 데이터 및 손 영역의 제스처에 대한 데이터를 포함한 제스처 결합 정보를 참조하여 상기 컨텐츠가 제어되도록 하는 단계를 포함하는 것을 특징으로 하는 컨텐츠 제어 방법이 개시된다. 본 발명에 따르면, 키보드, 마우스, 리모컨과 같은 별도의 인터페이스 도구 없이도, 사용자의 머리의 제스처 및 손의 제스처를 이용하여 컨텐츠를 제어할 수 있으므로 다양한 컨텐츠를 편하고, 효과적으로 제공 받을 수 있는 효과를 달성할 수 있다.
Abstract:
The present invention relates to a smart helmet. The smart helmet includes a camera for filming the front view of the helmet, a processing part which receives information on an external image filmed by the camera and generates information image conformed to external image, and a see-through display which outputs the information image and allows a user to see overlapped information image and front view of the helmet. The smart helmet improve work efficiency by obtaining information on external environment or devices for users. [Reference numerals] (100) Smart helmet;(110) Camera;(120) Processing part;(130) See-through display;(140) communication part;(150) External device
Abstract:
The present invention relates to a method for matching a virtual object using motion recognition, which comprises the steps of: recognizing motion of a user; generating a virtual object corresponding to the recognized motion; matching the generated virtual object to the user; and operating the virtual object with the augmented reality according to the user′s motion. Thereby, a motion of a user can be recognized and a virtual object with the augmented reality can be generated and managed based on the recognized information.
Abstract:
The present invention relates to a motion recognition method. The motion recognition method according to the present invention may comprise the steps of: (a) acquiring motion pattern information of a user, wherein the motion pattern information includes (i) figure or linear information acquired by the user through information on a change in an angle at which a user gesture progresses, (ii) acceleration information acquired through information on a change in speed in a section in which a progress angle of the user gesture is constantly maintained, and (iii) information learned through at least one of information on an order in which a figure or a line corresponding to the user gesture is drawn or information on the size of the figure or the line, (b) acquiring a user gesture newly input through at least one of a camera and an ultrasonic sensor, and (c) predicting the type of the newly input user gesture or a time for which the user gesture is finished with reference to motion pattern information of the user.
Abstract:
PURPOSE: Method, terminal apparatus, and computer readable record medium for controlling contents by sensing gesture of head and hand are provided to use combining information of gesture of head and hand without UI(User Interface) tool, thereby efficiently control contents. CONSTITUTION: Valid area detector(110) analyzes input image, and extracts head and hand area of user. Detection area tracker(120) traces gesture of head and hand area of the user. Control order analyzer(140) controls the contents with reference to gesture combination information including data of gesture of head and hand area. The control order analyzer matches position and direction information included in data about gesture of the head and hand area, compare the matched data with predetermined command signal data included in database, and recognizes as specific command. [Reference numerals] (110) Valid area detector; (120) Detection area tracker; (130) Input data modality junction unit; (140) Control order analyzer; (150) Database; (160) Communication unit; (170) Controller