Abstract:
본 발명은 학습자의 자율성을 확보하고 공감각적인 동작 및 행위를 촉진하고 아동의 창의력과 의사소통의 능력을 증진하기 위해서 아동용 게임 콘텐츠와 인터랙션하게 연동하도록 기존의 키보드와 마우스 같은 제안된 입력 장치가 아닌 공감각적이고 직관적으로 인터랙션을 할 수 있도록 적외선 Depth카메라 장치를 활용한 내추럴 유저 인터페이스(Natural User Interface)을 이용한 공감각적 행위기반 인터페이스 제어방법에 관한 것이다. 본 발명은, 사용자의 동작을 인식하기 위한 동작인식 수단 및 전자 주사위를 포함하여 컴퓨터상에서 구동되는 공감각적 행위기반 인터페이스 시스템에서 사용자의 입력사항을 처리하기 위한 제어방법에 있어서, 사용자 제스처(gesture)에 의한 입력신호 또는 외부장치로 구성되는 전자 주사위에 의한 입력신호를 전송받기 위한 입력 대기단계와; 다양한 제스처 정보를 가지는 제스처DB를 포함하며, 상기 동작인식 수단으로부터 전송받은 제스처를 상기 제스처DB에 기록된 일 이벤트로 대응시키는 제스처 전처리 단계와; 전자 주사위에 의해 발신되는 주사위 눈의 값(value)을 이벤트화하는 주사위 값 입력단계와; 상기 제스처 전처리 단계 및 주사위 값 입력단계로부터 전송받은 이벤트를 컴퓨터 모니터상 출력되는 입력대기 상태인 스크린으로 전달하고, 해당 스크린은 스크린별로 미리 기록된 플로우 라우터에 의해 상기 전송받은 이벤트를 분기시켜 정해진 명령을 실행하는 명령단계;를 포함하는 것을 특징으로 하는 공감각적 행위기반 인터페이스 제어방법을 제공한다.
Abstract:
본 발명은 차세대 디스플레이 장치나 IPTV에 동작 인식용 카메라를 장착하여 입력된 사용자들의 손동작 특징을 나타내는 영상 정보를 영상처리 기술 및 센서 신호처리 기술에 의해 추출하고, 입력된 영상을 분류 및 분석하여 얻어진 정보를 바탕으로 손동작을 인식하여 IPTV 콘텐츠 및 차세대 통합형 디스플레이 기기의 동작 제어를 위한 손동작 인식 기반의 콘텐츠 제어 방법에 관한 것이다. 본 발명에 따르는 차세대 통합 디스플레이 장치용 손동작 인식 기반의 콘텐츠 제어 방법은, 영상촬영수단을 통해 획득한 영상에서 손 영역을 추출하는 단계; 추출된 상기 손 영역에서 손의 움직임을 인식하는 단계를 포함하여 이루어지는 것을 구성적 특징으로 한다.
Abstract:
PURPOSE: A container volume and distance detecting method is provided to be applied to produce three-dimensional information to implement virtual space. CONSTITUTION: A container volume and distance detecting method is as follows. The fixed region is an image of taken by a stereo camera(S1). Edges are detected from the recorded image(S2). The linear components are detected from detected edges(S4). The container candidate areas are drawn based on the detected linear components(S6). A container domain is detected by mapping container candidate domains and an edge detected image(S8). 3D image of container is produced based on the image of the container domain(S9). The distance between the container and crane are detected from scanning information(S12).
Abstract:
PURPOSE: A system for controlling the operation of a display device based on gesture information recognition of a user is provided to build feature information of the shape, location and gesture of a face, hands and legs in a database, thereby classifying and analyzing an inputted image to generate feature information. CONSTITUTION: A system for controlling the operation of a display device includes a photographing unit(150), a face part extracting unit(110) and a face part identifying unit(120). The photographing unit photographs a user. The face part extracting unit extracts a face part from an image screen obtained from the photographing unit. The face part identifying unit determines whether a user is an adult by the extracted face part and determines whether watching an adult channel is possible.
Abstract:
본 발명은 적외선 동작 인식 카메라를 사용한 네추럴 유저 인터페이스 기반 입체 지구본에 관한 것으로, GLSL을 이용하여 구형상의 지구본을 모델링하는 단계; 상기 모델링된 지구 맵에 대해 지형의 높이차를 부여하기 위해 높이 맵(high map)을 맵핑하는 단계; 상기 높이 맵이 맵핑된 지구본에 질감을 부여하기 위해 범프 맵(Bump map)을 맵핑하는 단계; 상기 범프 맵이 맵핑된 지구본에 대해 빛의 명암을 부여하기 위해 나이트 맵(Night map)을 맵핑하는 단계; 및 상기 나이트 맵이 맵핑된 지구본에 대해 3D 입체 출력하는 단계를 포함한다.
Abstract:
본 발명은 사람의 입 위치와 모양 정보에서 추출한 데이터의 분석 결과를 이용하여 단말기를 제어할 수 있도록 하는 단말기 자동제어 인터페이스 시스템에 관한 것이다. 본 발명은 사용자들의 다양한 얼굴형태 및 입의 위치와 모양 등의 특징 정보를 추출하여 데이터베이스화하고, 입력된 영상을 분석하여 얻어진 정보와 얼굴의 기하학적 구조를 바탕으로 사람의 얼굴 형태를 결정하고 처리된 입의 위치와 얼굴의 기하학적 위치구조관계를 이용해서 입의 위치정보를 계산함은 물론, 계산된 사용자의 정보를 이용하여 단말기를 제어할 수 있도록 하는 것으로, 단말기를 제어함에 있어 별다른 외부 장치의 입력 없이 마우스 위치 정보와 동일한 입력이 이루어지도록 한 것이다. 입의 컬러정보를 이용하여 입모양을 2진 이미지로 처리하고 분석된 결과의 입 모양정보를 바탕으로 단말기에게 제어 정보를 전달함으로써 단말기를 쉽게 제어 할 수 있도록 하고, 사용자에게 온라인 실시간 이미지 분석프로그램을 제공하여 사용자의 얼굴 이미지 분석결과를 사전에 사용자시스템에서 미리 이루어지도록 하고, 시스템에서는 카메라를 통해 분석된 결과정보만을 제공받아 단말기에게 제어정보를 제공할 수 있도록 하고자 한 것이다. 본 발명에서는 제 1 관점으로서, 인간 단말기간 마우스 인터페이스 제어방법에 있어서, 영상입력부에서 얼굴영상을 입력받는 1단계와; 이미지처리부에서 RGB 이미지를 YC b Cr 컬러 공간의 이미지로 변경하는 2단계와; 이미지처리부에서 얼굴영역을 검출하는 3단계와; 입위치검출부에서 얼굴영역에서 입위치를 검출하는 4단계와; 입형태분석모듈부에서 얼굴영역을 이용하여 입형태를 검출하는 5단계와; 단말기 제어명령 생성부에서 상기 입위치와 입형태를 이용하여 단말기 제어명령 생성 후에 단말기에 제어명령을 전달하는 6단계를 포함하는 것을 특징으로 하는 인간 단말기간 마우스 인터페이스 제어방법이 제시된다. 제 2 관점으로서, 인간 단말기간 마우스 인터페이스 제어방법에 있어서, 영상입력부에서 얼굴영상을 입력받는 1단계와; 이미지처리부에서 RGB 이미지를 YC b Cr 컬러 공간의 이미지로 변경하는 2단계와; 이미지처리부에서 얼굴영역을 검출하는 3단계와; 입형태분석모듈부에서 얼굴영역을 이용하여 입형태를 검출하는 4단계와; 입위치검출부에서 얼굴영역에서 입위치를 검출하는 5단계와; 단말기 제어명령 생성부에서 상기 입위치와 입형태를 이용하여 단말기 제어명령 생성 후에 단말기에 제어명령을 전달하는 6단계를 포함하는 것을 특징으로 하는 인간 단말기간 마우스 인터페이스 제어방법이 제시된다. 제 3 관점으로서, 인간 단말기간 마우스 인터페이스 시스템에 있어서, 인간의 얼굴영상을 입력받는 영상입력부와; 상기 얼굴영상을 이용하여 이미지변환을 하여 얼굴영역을 추출하는 이미지처리부와; 상기 얼굴영역에서 입위치를 추출하는 입위치검출모듈부와; 상기 얼굴영역에서 입형태를 분석하는 입형태분석모듈부와; 상기 입위치와 입형태를 이용하여 단말기에 전달할 제어명령을 생성하는 단말기 제어 명령 생성부를 포함하는 것을 특징으로 하는 인간 단말기간 마우스 인터페이스 시스템이 제시된다. 인터페이스, 마우스, 제어, 입위치, 입형태, 명령