Abstract:
3차원 가상 공간 모델을 이용한 사용자 포즈 추정 방법 및 장치를 개시한다. 3차원 공간에 대한 사용자의 위치(position) 및 방향(orientation) 정보를 포함하는 사용자 포즈를 추정하는 방법은, 상기 3차원 공간에서 획득된 영상을 포함하는 사용자 정보를 수신하는 단계와, 상기 3차원 공간에 대한 깊이 정보 및 영상 정보를 포함하는 공간 정보에 기초하여 구축된 3차원 가상 공간 모델을 확인하는 단계와, 상기 3차원 가상 공간 모델 내에서 상기 사용자 정보에 대응하는 대응 정보를 생성하는 단계와, 상기 대응 정보와 상기 사용자 정보의 유사도를 산출하는 단계 및 상기 유사도에 기초하여 사용자 포즈를 추정하는 단계를 포함한다.
Abstract:
깊이정보를 이용한 360 이미지 제작 방법을 개시한다. 본 발명의 일 실시예에 따른 깊이정보를 이용한 360 이미지 제작 방법은 적어도 하나의 카메라를 이용해 촬영된 복수의 카메라 이미지, 상기 복수의 카메라 이미지가 촬영된 카메라의 위치 및 방향에 대한 정보인 포즈정보, 상기 360 이미지의 원점 위치에 대한 정보인 위치정보, 상기 공간에서 측정된 복수의 깊이값에 대응되는 지점에 관한 정보인 깊이정보, 상기 복수의 카메라 이미지에 포함된 픽셀과 상기 깊이정보에 포함된 지점 사이의 대응관계를 나타내는 카메라 모델 및 상기 360 이미지에 포함된 픽셀과 상기 깊이정보에 포함된 지점 사이의 대응관계를 나타내는 360 모델을 포함하는 360 이미지제작정보를 수신하는 정보수신단계; 상기 위치정보, 상기 360 모델 및 상기 깊이정보를 이용하여, 상기 깊이정보에 포함된 복수의 지점 중에서 상기 360 이미지에 포함된 픽셀인 대상픽셀에 대응되는 깊이정보지점을 선택하는 대상선택단계; 상기 포즈정보, 상기 카메라 모델 및 상기 깊이정보를 이용하여, 상기 복수의 카메라 이미지 중에서 상기 깊이정보지점에 대응되는 카메라 이미지의 픽셀의 픽셀값을 취득하는 이미지픽셀값취득단계; 및 상기 취득된 카메라 이미지의 픽셀값을 이용하여 상기 대상픽셀의 픽셀값을 구성하는 대상픽셀구성단계를 포함한다.
Abstract:
PURPOSE: A high-speed plane extraction method and a robot moving device using the same are provided to minimize loads on a memory by preventing unnecessary repeated calculations using a hierarchical division system. CONSTITUTION: A high-speed plane extraction method is as follows. A sensor unit detects sensor information including distance information on an object region(S10). Plane information is extracted based on the sensor information. Whether the extracted plane information fits or not is determined(S20). The identified plane information of the object region is expanded based on the obtained plane information(S30). The frame about the object region is divided into a plurality of sub frames, and the plane information is extracted and evaluated.
Abstract:
The present invention is to provide a plane extracting method, and a map building and position recognizing method having the same and using a mobile robot, wherein the map building and position recognizing method comprises: a providing step of providing the mobile robot including a detecting part, a storing part, a calculating part, a controlling part, and a driving part; a detecting step of allowing the detecting part to detect point data for a peripheral area depending on the detection control signal of the controlling part; a plane feature extracting step of allowing the controlling part to extract plane features using the point data detected by the detecting part and predetermined data in the storing part; and a data associating step of matching map data for a peripheral environment using a space relation derived from prior plane features and present plane features, wherein the map data for the peripheral area is obtained by the motion of the mobile robot. In the plane feature extracting step, a potential cue sequentially storing point data with cube units and data for the corresponding cube units, and a plane cue receiving the data for the cube units from the potential cue are used so that a plane extracting process for hierarchically and differentially partitioning the point data or integrating the plane features depending on the complexity of the peripheral environment is possible, wherein the point data with the cube units is generated by partitioning the point data for the peripheral environment into predetermined cube sizes, and the data for the cube units has single plane features after sequentially processed in the potential cue.
Abstract:
본 발명은, 센서부가 대상 영역에 대한 거리 정보를 포함하는 센서 정보를 감지하는 감지 단계와, 상기 감지 단계에서의 센서 정보에 기초하여 평면 정보를 추출하고 추출된 평면 정보에 대한 적합도를 판단하는 평면 정보 추출 평가 단계와, 상기 평면 정보 추출 평가 단계에서 얻어진 평면 정보에 기초하여 대상 영역의 확인된 평면 정보를 확장시키는 특징 정보 확장 단계를 구비하고, 상기 평면 정보 추출 평가는 대상 영역에 대하여 복수 개의 서브 프레임으로 분할하여 평면 정보를 추출 평가하는 것을 특징으로 하는 고속 평면 추출 방법 및 이를 이용한 로봇 이동 장치를 제공한다.
Abstract:
Provided is a map building and position recognizing method using a mobile robot, wherein the method comprises: a providing step of providing the mobile robot including a detecting part, a storing part, a calculating part calculating plane features from point data, a controlling part connected to the calculating part and applying a calculation control signal, and a driving part moving depending on the driving control signal of the controlling part; a detecting step of allowing the detecting part to detect the point data for a peripheral area depending on the detection control signal of the controlling part; a plane feature extracting step of allowing the controlling part to extract the plane features using the point data detected by the detecting part and predetermined data in the storing part; and a data associating step of matching map data for a peripheral environment using a space relation derived from prior plane features and present plane features, wherein the map data for the peripheral area is obtained by the motion of the mobile robot, and the data associating step includes: a sampling step of selecting a pair of rotation matching plane features between the present plane features and the prior plane features; and a consensus step of estimating the space relation between the prior position of the mobile robot and the present position of the mobile robot using the pair of rotation matching plane features and identifying whether or not the pair of rotation matching plane features is included in a group of pairs of the plane features.