Abstract:
프로젝터에의해투사된패턴을이용하여왜곡보정및 정렬을수행하는시스템및 방법이개시된다. 패턴프로젝션을왜곡보정및 정렬시스템은, 패턴을투사하는프로젝터와, 패턴이투사된영상을촬영하여촬영패턴영상을생성하는적어도하나의카메라와, 프로젝터가투사하는원본패턴영상과촬영패턴영상을비교함으로써정렬파라미터를산출하는영상처리장치를포함한다. 따라서, 프로젝터에의해투사된패턴에대한영상을손쉽게활용하여정확한깊이영상을획득할수 있다. 또한, 깊이영상의획득에있어서카메라렌즈및 카메라의정렬상태에따른영상왜곡을보정하기위한정렬파라미터를프로젝터에의해투사되는패턴을이용하여효율적으로얻을수 있다.
Abstract:
A method for matching an active stereo of the present invention comprises the steps of: extracting a pattern from a stereo image containing the pattern; generating depth information via stereo matching by using the extracted pattern; calculating a total cost for a sight difference by using Windows kernel generated by using the extracted pattern and cost volume generated for the stereo image; and generating sight difference information by using the calculated depth information and the total cost.
Abstract:
본 발명은 지능형 이동로봇에서 사람의 존재와 위치를 검출하는 장치 및 방법에 관한 것으로서, 본 발명의 목적은, 사람을 찾아 카메라 팬/틸트 중이거나 이동중인 지능형 이동로봇이, 그 시야에 사람이 있는지의 여부와 그 사람의 위치를 검출할 수 있도록 하기 위한, 사람 검출 장치 및 방법을 제공하는 것이다. 이를 위해 본 발명은, 로봇에 장착되어 있으며 영상 정보를 출력하는 카메라; 상기 로봇 또는 카메라의 이동 여부를 판단하는 관측계 상태 입력 수단; 상기 영상 정보를 입력받아, 모드 정보를 포함하는 비트스트림을 출력하는 인코딩 수단; 상기 비트스트림을 디코딩하며, 각 매크로블록의 블록 모드값을 추출하여 2차원 배열에 저장하는 기능을 수행하는 디코딩 수단; 및 상기 관측계 상태 입력 수단에서 제공되는 판단 정보와, 상기 디코딩 수단에서 제공되는 블록 모드 2차원 배열을 이용하여, 움직이는 사람에 대한 정보를 검출하여 검출 정보를 출력하는 사람 검출 수단을 포함한다. 로봇, 인코딩, 디코딩
Abstract:
PURPOSE: An apparatus and a method for detecting an upper body pose and a hand shape are provided to grasp peripheral environments in 3 dimension when using at least two cameras. CONSTITUTION: A stereo vision computing unit(300) calculates three dimensional distance information from the image provided form at least two cameras(101-103), and a color pattern classification unit(400) outputs the color information and the pattern information by classifying the color and the pattern from the images. Plural location detecting units(610-650) extract 3D location information for each target, and an upper body pose recognition unit(710) recognizes an upper body by using the 3D location information for each target. A hand shape recognition unit(720) recognizes the shape of a hand by using the hand location information.
Abstract:
PURPOSE: A face detection apparatus and a feedback method combined with face detection and skin color extraction are provided to minimize the face detection target region by extracting face existence enable region from a current frame. CONSTITUTION: An extraction unit(200) extracts a face existence enable region from a current frame based on face skin color information detected from the previous frame. A face detection unit(300) detects the actual face region based on face shape information of extracted face existence enable region. A skin color detection unit(400) detects the face skin color information from the detected actual face range.
Abstract:
PURPOSE: An apparatus and a method for detecting an upper body pose and a hand shape are provided to grasp peripheral environments in 3 dimension when using at least two cameras. CONSTITUTION: A stereo vision computing unit(300) calculates three dimensional distance information from the image provided form at least two cameras(101-103), and a color pattern classification unit(400) outputs the color information and the pattern information by classifying the color and the pattern from the images. Plural location detecting units(610-650) extract 3D location information for each target, and an upper body pose recognition unit(710) recognizes an upper body by using the 3D location information for each target. A hand shape recognition unit(720) recognizes the shape of a hand by using the hand location information.
Abstract:
PURPOSE: A distance measuring method and a stereo matching system is provided to enable a network mobile robot to easily obtain the distance information based on images without a separate stereo matching hardware or an additional distant sensor. CONSTITUTION: A distance measuring method comprises following steps. A reference motion vector is established by enabling calibration on first and the second cameras. A second camera images is encoded with reference to the first camera image. If blocks of the second camera images is predicted and encoded, the motion vector and the standard motion vector of the blocks are compared. If the compared motion vector is not the same as the standards motion vector, the size value of the motion vector is determined as disparity value.
Abstract:
본 발명은 카메라 수단을 포함하는 이동 시스템, 이동 시스템에서의 카메라 위치 정보 측정 방법, 카메라 현가 장치 및 카메라 장착 장치에 관한 것이다. 본 발명에 따르면, 이동 시스템은 카메라 장착 장치를 포함하는데, 카메라 장착장치는 상기 카메라 수단이 장착되는 카메라 장착부, 이동 시스템의 본체에 부착되는 본체 부착부, 및 상기 카메라 장착부의 평면상의 한점을 고정점으로 하여 상기 카메라 장착부를 상기 본체 부착부에 연결하고, 탄성 수단을 통해 상기 본체 부착부의 운동으로부터 상기 카메라 수단을 격리시키는 연결 수단을 포함한다. 그리고 연결수단은 상기 고정점과 상기 본체 부착부의 제1점을 연결하는 탄성 수단을 포함하는 카메라 현가 장치를 포함한다. 따라서, 카메라 현가 장치를 통해 이동 시스템의 주행 중 바닥 가진에 의해 촬영중인 영상이 심하게 흔들리는 것을 방지할 수 있다. 그리고, 본 발명은 카메라가 부착된 평면의 정보를 출력하여 매순간 변하는 카메라 위치를 제공하므로, 매끄럽지 못한 장소에서 이동시스템이 이동하는 중에도 데이터로서 활용 가능한 영상을 취득하도록 할 수 있다. 이동 로봇, 진동 절연, 로봇 비전, 현가 장치
Abstract:
본 발명은 이동 시스템 및 이동 시스템의 주행 방법에 관한 것이다. 본 발명에 따르면, 상기 휠을 통한 가속, 감속 혹은 외력에 의해 나타나는 진동 성분 신호로부터 고유 주기를 측정하고, 상기 고유 주기를 기초로 한 가속 혹은 감속 구간을 포함하는 주행 프로파일을 적용하여 주행한다. 따라서, 고유주기에 기반한 가속프로파일을 사용하므로, 사용자에게 관찰되는 진동을 유발하지 않으면서 이동체를 가속 혹은 감속할 수 있고, 그 결과 이동체의 완성도를 높일 수 있다. 지능형 서비스 이동 로봇, 진동제어, 가속도 센서