Abstract:
본 발명은 무인항공기와 주변 장애물의 충돌을 방지하는 무인항공기 충돌 방지 시스템 및 방법에 관한 것이다. 본 발명에 따른 무인항공기 충돌 방지 시스템은 GPS를 이용하여 무인항공기의 고도를 측정하는 고도측정부와, 고도측정부에 의하여 측정된 고도가 기설정된 고도 이하인 경우 무인항공기 주변의 영상을 획득하여 장애물의 존재 여부 및 장애물의 위치를 파악하는 영상획득부와, 장애물과 무인항공기 사이의 거리를 획득하는 센서부 및 센서부가 획득한 장애물과 무인항공기 사이의 거리를 고려하여 무인항공기의 항로를 변경하는 충돌방지제어부를 포함한다. 또한, 본 발명에 따른 무인항공기 충돌 방지 방법은 GPS를 이용하여 무인항공기의 고도를 측정하는 고도측정단계와, 측정된 고도가 기설정된 고도 이하인 경우 무인항공기 주변의 영상을 획득하여 주변 장애물의 위치를 파악하는 단계와, 무인항공기와 주변 장애물 간의 거리를 획득하는 단계와, 무인항공기의 위치변동 및 자세변화 정보를 획득하는 자세정보 획득 단계 및 무인항공기의 항로를 변경하여 상기 장애물과의 충돌을 방지하는 충돌방지단계를 포함한다.
Abstract:
위성항법시스템이가지고있는내재적인문제점을해결하고자비전시스템과융합하여신뢰성있고안정적인위치결정을위한위치계산장치및 방법을개시한다. 일실시예로서, 위치계산장치및 방법은, 위치결정에서연속적이면서도신뢰도를향상시키기위하여비전시스템과융합한보다발전된위치결정시스템을개발할수 있고, 장애물이나외부영향으로위치정확도가떨어지거나음영지역이발생하여연속적인부분에서취약한단점을해결할수 있다.
Abstract:
A method and device for detecting and tracking an object is disclosed in the present invention. The object detecting and tracking method comprises the steps of: detecting an object using an appearance model of a left image input from a stereo camera, and detecting a distance from the object and the location of the object; connecting the object to existing tracking according to the similarity of the appearance model and the location of the object; setting a candidate parallax section in a right image input from the stereo camera by using the object distance; extracting a feature point of the object included in the candidate parallax section, and matching the feature point according to descriptor similarity; and determining the distance from the object by extracting sub pixel parallax according to parallax of the matched feature point. [Reference numerals] (100) Object detecting and tracking device;(101) Object detecting unit;(102) Left image;(103) Data associating unit;(104) Candidate region setting unit;(105) Right image;(106) Feature point matching unit;(107) Distance/location determining unit
Abstract:
듀얼 모드를 사용하여 기본적으로 환경이 좋은 곳에서는 정밀도가 우수한 반송파 위상을 적용한 위치 측위를 수행하고, 반송파 위상을 사용할 수 없는 환경이나 사이클 슬립이 발생하면 코드 모드로 변환하여 안정적이고 신뢰성 있는 측위를 수행하는 위치 측위 시스템 및 방법을 개시한다. 일 실시예로서, 위치 측위 시스템은, 위성항법시스템의 개수를 모니터링하는 모니터링부; 상기 위성항법시스템의 개수가 적어도 네 개 이상이며 사이클 슬립이 발생하는지 여부를 판단하는 판단부; 및 상기 사이클 슬립이 발생하지 않으면 반송파 위상을 사용한 위치 측위를 수행하는 위상 측위부를 포함하여 구성할 수 있다.
Abstract:
시차맵의 값이 낮은 부분에서도 양호한 검출 성능을 나타낼 수 있고 검출된 장애물체를 영역별로 정교하게 분리할 수 있는 스테레오 비전 기반의 장애물체 검출 방법 및 장치로서, 스테레오 비전 기반으로 좌·우 영상을 입력받아 시차맵을 생성하는 단계와, 상기 시차맵에 히스토그램 평활화 과정을 실행하는 단계와, 상기 히스토그램 평활화가 실행된 시차맵을 V-시차맵으로 변환하고, 상기 V-시차맵으로부터 도로 정보를 추출하는 단계와, 상기 히스토그램 평활화가 실행된 시차맵과 상기 추출된 도로 정보를 이용하여 컬럼 검출을 실행함으로써, 장애물체의 영역을 검출한다. 또한, 상기 컬럼 검출에 의해 장애물체의 영역이 검출된 시차맵에 대해 카메라 정보를 이용하여 조감도 맵핑을 실행함으로써, 시차맵을 조감도로 변환하는 단계와, 상기 조감도에서의 각 행에 대해 최대치 구간을 검출하여 행별 클러스터링을 실행함으로써, 장애물체 영역을 개별적으로 분리하는 단계와, 상기 클러스터링된 조감도에 대해, 역조감도 맵핑을 실행하여 시차맵으로 변환하는 단계와, 상기 역조감도 맵핑에 의해 취득된 시차맵으로부터의 시차값을 이용하여, 장애물체의 정보를 추출한다.
Abstract:
PURPOSE: A depth information estimation device based on a structured light pattern and a method thereof are provided to use the structured light pattern of a grid structure when a feature of the structure light pattern is recognized, thereby maintaining performance. CONSTITUTION: A structured light source unit(100) generates a specific structured light pattern by using a light source of a projector and scans the structured light pattern to an object. The structured light pattern is composed of a node of a grid structure. A camera unit(110) obtains a structured light pattern of an image from the object. A depth information calculation unit(130) estimates depth information of the object through a geometric relation between the specific structured light pattern and the structure light pattern of the image. [Reference numerals] (100) Structured light source unit; (110) Camera unit; (120) Module synchronization control unit; (130) Depth information calculation unit
Abstract:
PURPOSE: An object detecting device using a 3D image and a method thereof are provided to shorten object detection time by detecting an object according to a size change of the object by using distance information of the object. CONSTITUTION: An image processing unit(120) generates an image pyramid about a 2D image of an object obtained from an image obtaining unit(110), divides a 3D image obtained from the image obtaining unit into one or more object candidate areas by using distance information, and estimates an object size of each object candidate area. An object detecting unit(130) selects a 2D image level corresponding to the object size from the image pyramid and detects the object from the 2D image included in the level by using a detection mask. [Reference numerals] (111) 2D image obtaining unit; (112) 3D image obtaining unit; (121) Image pyramid generating unit; (122) Area dividing unit; (123) Object size estimating unit; (131) Image level selecting unit; (132) Object extracting unit
Abstract:
PURPOSE: A location determination apparatus and method using a vision system are provided to improve continuity and reliability of location determination. CONSTITUTION: A location determination apparatus comprises a satellite navigation system(510), a database(520), a vision system(530), a map matching system(540), and a location calculating part(550). The database stores coordinate data of a plurality of buildings. The map matching system calculates the coordinate data of a second target building recognized through a stereo camera by applying map matching. The vision system extracts coordinate data of a first target building from the database and calculates two first pseudo distances using the coordinate data of the second target building and the coordinate data of the first target building. The location calculating part calculates a second pseudo distance by location data and measures location of a moving body using the two first pseudo distances and the second pseudo distances. [Reference numerals] (510) Satellite navigation system; (520) Database; (530) Vision system; (540) Map matching system; (550) Location calculating part
Abstract:
PURPOSE: An object tracking and location estimating method is provided to increase tracking/estimating performance of a filter due to accurate prediction performance. CONSTITUTION: An object area is measured according to the size of an ROI(Region Of Interest)(510). Feature points of the detected object are extracted. A two-dimensional homography matrix is presumed by using the extracted feature points(520). A location of particles is predicted by using the presumed homography matrix(530). A weighted value of a particle is updated(540). A particle filter is degraded by the updated weighted value(550).