Abstract:
본 발명은 머리의 제스처 및 손의 제스처를 감지하여 컨텐츠를 제어하기 위한 방법에 있어서, (a) 입력된 영상을 분석하여 사용자의 머리 영역 및 손 영역을 검출하는 단계; (b) 컴퓨터 비전 기술을 사용하여 상기 사용자의 머리 영역의 제스처(Gesture) 및 손 영역의 제스처를 추적하는 단계; 및 (c) 상기 추적된 머리 영역의 제스처에 대한 데이터 및 손 영역의 제스처에 대한 데이터를 포함한 제스처 결합 정보를 참조하여 상기 컨텐츠가 제어되도록 하는 단계를 포함하는 것을 특징으로 하는 컨텐츠 제어 방법이 개시된다. 본 발명에 따르면, 키보드, 마우스, 리모컨과 같은 별도의 인터페이스 도구 없이도, 사용자의 머리의 제스처 및 손의 제스처를 이용하여 컨텐츠를 제어할 수 있으므로 다양한 컨텐츠를 편하고, 효과적으로 제공 받을 수 있는 효과를 달성할 수 있다.
Abstract:
본 발명에 따른 애플리케이션 실행 제어 장치는 단말기에서 실행 가능한 애플리케이션들을 중독성 애플리케이션과 유익 애플리케이션으로 구분하는 애플리케이션 분류부, 유익 애플리케이션이 실행되면, 유익 애플리케이션의 플레이 시간을 모니터링하는 시간 측정부, 및 유익 애플리케이션의 플레이 시간을 참조로 하여, 중독성 애플리케이션의 실행 권한을 부여하고 중독성 애플리케이션의 플레이 가능 시간을 보상으로서 부여하는 애플리케이션 실행 관리부를 포함한다. 본 발명에 따른 애플리케이션 실행 제어 방법 및 장치를 이용하면, 사용자가 과도한 시간을 할애하여 중독성 있는 애플리케이션, 예를 들어, 중독성 게임, SNS, 만화 컨텐츠 등 중독이 우려되는 애플리케이션을 과도하게 플레이하는 것을 제어하고, 사용자들이 유익한 애플리케이션, 예를 들어, 학습형 애플리케이션, 인지능력 향상 컨텐츠 관련 애플리케이션, 학습 동영상 등을 플레이하도록 유도하여 유익한 애플리케이션의 사용을 권장할 수 있다.
Abstract:
본 발명은 동작인식센서(motion recognition sensor)를 이용하여 사용자의 동작을 인식하는 방법에 관한 것으로, 동작인식센서를 이용하여 사용자의 동작을 실시간으로 감지하는 단계, 상기 감지되는 동작을 기 설정된 패턴정보와 비교하여 상기 감지되는 동작이 형성할 동작패턴을 예측하며, 상기 동작패턴은 상기 감지되는 동작이 형성할 도형의 종류 및 상기 감지되는 동작이 종료될 종료시간에 대한 정보를 포함하는 것을 특징으로 하는 단계 및 상기 예측된 종료시간이 도과하면, 상기 예측된 도형의 종류에 대응하는 제어기능을 실행하는 단계를 포함하는 것을 특징으로 한다.
Abstract:
본발명은보조장치의회전이나이동또는진동과같은모션만으로도외부장치를컨트롤할수 있어, 직관적인사용자인터페이스를제공할수 있게되고이로인해기존의버튼방식에따른보조장치의조작을위해소요되는시간이나조작시에발생될수 있는실수를상당수줄이기위한것으로, 본발명에의하면, 외부장치를컨트롤할수 있는보조장치로서,상기보조장치의회전량및 회전방향을감지하거나상기보조장치의직선이동량및 직선이동방향을감지하기위한센서부, 상기외부장치를통해제공되는복수의항목이소정의순서대로정해져있고상기외부장치상에서상기복수의항목중 특정항목이선택되어있는상태를가정할때, (i) 상기센서부에의해감지된회전량이단위회전량을 n 개포함하고있다고판단된경우, 상기회전방향이제1 방향이면상기특정항목으로부터 n x a 개다음의항목이선택되도록상기외부장치에지시하기위한컨트롤신호를발생시키고, 상기회전방향이제2 방향이면상기특정항목으로부터 n x a 개이전의항목이선택되도록상기외부장치에지시하기위한컨트롤신호를발생시키며, (ii) 상기센서부에의해감지된직선이동량이단위이동량을 m 개포함하고있다고판단된경우, 상기이동방향이제3 방향이면상기특정항목으로부터 m x b 개다음의항목이선택되도록상기외부장치에지시하기위한컨트롤신호를발생시키고, 상기회전방향이제4 방향이면, 상기특정항목으로부터 m x b 개이전의항목이선택되도록상기외부장치에지시하기위한컨트롤신호를발생시키는컨트롤신호발생부를포함하되, 상기 a 가 1 로설정되면상기 b 는 2 이상의정수로설정되도록하고, 상기 b 가 1 로설정되면상기 a 는 2 이상의정수로설정되도록하는것을특징으로하는보조장치를제공한다.
Abstract:
본 발명은 머리의 제스처 및 손의 제스처를 감지하여 컨텐츠를 제어하기 위한 방법에 있어서, (a) 입력된 영상을 분석하여 사용자의 머리 영역 및 손 영역을 검출하는 단계; (b) 컴퓨터 비전 기술을 사용하여 상기 사용자의 머리 영역의 제스처(Gesture) 및 손 영역의 제스처를 추적하는 단계; 및 (c) 상기 추적된 머리 영역의 제스처에 대한 데이터 및 손 영역의 제스처에 대한 데이터를 포함한 제스처 결합 정보를 참조하여 상기 컨텐츠가 제어되도록 하는 단계를 포함하는 것을 특징으로 하는 컨텐츠 제어 방법이 개시된다. 본 발명에 따르면, 키보드, 마우스, 리모컨과 같은 별도의 인터페이스 도구 없이도, 사용자의 머리의 제스처 및 손의 제스처를 이용하여 컨텐츠를 제어할 수 있으므로 다양한 컨텐츠를 편하고, 효과적으로 제공 받을 수 있는 효과를 달성할 수 있다.
Abstract:
The present invention relates to a method for matching a virtual object using motion recognition, which comprises the steps of: recognizing motion of a user; generating a virtual object corresponding to the recognized motion; matching the generated virtual object to the user; and operating the virtual object with the augmented reality according to the user′s motion. Thereby, a motion of a user can be recognized and a virtual object with the augmented reality can be generated and managed based on the recognized information.
Abstract:
The present invention relates to a motion recognition method. The motion recognition method according to the present invention may comprise the steps of: (a) acquiring motion pattern information of a user, wherein the motion pattern information includes (i) figure or linear information acquired by the user through information on a change in an angle at which a user gesture progresses, (ii) acceleration information acquired through information on a change in speed in a section in which a progress angle of the user gesture is constantly maintained, and (iii) information learned through at least one of information on an order in which a figure or a line corresponding to the user gesture is drawn or information on the size of the figure or the line, (b) acquiring a user gesture newly input through at least one of a camera and an ultrasonic sensor, and (c) predicting the type of the newly input user gesture or a time for which the user gesture is finished with reference to motion pattern information of the user.
Abstract:
PURPOSE: Method, terminal apparatus, and computer readable record medium for controlling contents by sensing gesture of head and hand are provided to use combining information of gesture of head and hand without UI(User Interface) tool, thereby efficiently control contents. CONSTITUTION: Valid area detector(110) analyzes input image, and extracts head and hand area of user. Detection area tracker(120) traces gesture of head and hand area of the user. Control order analyzer(140) controls the contents with reference to gesture combination information including data of gesture of head and hand area. The control order analyzer matches position and direction information included in data about gesture of the head and hand area, compare the matched data with predetermined command signal data included in database, and recognizes as specific command. [Reference numerals] (110) Valid area detector; (120) Detection area tracker; (130) Input data modality junction unit; (140) Control order analyzer; (150) Database; (160) Communication unit; (170) Controller