-
公开(公告)号:WO2018207969A1
公开(公告)日:2018-11-15
申请号:PCT/KR2017/005915
申请日:2017-06-07
Applicant: 국방과학연구소
CPC classification number: G06T7/11 , G06T7/90 , G06T2207/10024 , G06T2207/10028 , G06T2207/30204
Abstract: 본 발명은 영상에서 객체를 추출 및 분류하는 방법에 관한 것으로, 2차원 영상을 촬영하는 2차원 영상 센서와 상기 촬영된 2차원 영상으로부터 특정 객체를 추출 및 상기 특정 객체에 대한 클래스를 분류하는 2차원 영상 처리부와 3차원 영상을 촬영하는 3차원 영상 센서와 상기 촬영된 3차원 영상으로부터 상기 특정 객체를 추출 및 상기 특정 객체에 대한 클래스를 분류하는 3차원 영상 처리부와 상기 2차원 영상 처리부에서 추출된 특정 객체의 클래스 분류 결과와, 상기 3차원 영상 처리부에서 추출된 특정 객체의 클래스 분류 결과를 이용하여, 상기 특정 객체에 대한 최종 클래스 분류 결과를 산출하는 융합 처리부를 포함한다.
-
2.
公开(公告)号:KR101348681B1
公开(公告)日:2014-01-09
申请号:KR1020120155923
申请日:2012-12-28
Applicant: 국방과학연구소
IPC: G06T7/00
Abstract: The present invention relates to a multi-sensor image alignment method of an image detection system and a multi-sensor image alignment apparatus using the same. The multi-sensor image alignment method of the image detection system includes the following steps of: (a) receiving multi-sensor input images respectively from multi-sensors, generating an oriented map and an oriented edge map from the received multi-sensor input images, generating feature information of the images by using the generated oriented map and the generated oriented edge map, and generating a feature descriptor by using the feature information of the images; (b) performing feature matching between multi-sensor images by using the generated feature descriptor; and (c) performing homography calculation and generating an image which is aligned about the multi-sensor input images. The present invention like the forementioned is able to improve the accuracy of the matching between the multi-sensor images while performing the image alignment at high speed by using the new feature descriptor which is appropriate to the matching between the multi-sensor images. [Reference numerals] (AA) Start; (BB) End; (S110) Input image reception; (S115) Integral image generation; (S120) Edge Analysis; (S125) Hessian detector feature detection; (S130) Oriented map generation; (S140) Oriented edge map generation; (S150) Sampling using a geometric blur; (S160) Feature descriptor generation
Abstract translation: 本发明涉及一种图像检测系统的多传感器图像对准方法和使用该多传感器图像对准装置的多传感器图像对准装置。 图像检测系统的多传感器图像对准方法包括以下步骤:(a)分别从多传感器接收多传感器输入图像,从接收的多传感器输入图像生成定向图和定向边缘图 通过使用生成的定向图和生成的定向边缘图来生成图像的特征信息,并且通过使用图像的特征信息来生成特征描述符; (b)通过使用所生成的特征描述符来执行多传感器图像之间的特征匹配; 和(c)执行单应力计算并生成与多传感器输入图像对齐的图像。 如上所述的本发明能够通过使用适合于多传感器图像之间的匹配的新特征描述符来提高多传感器图像之间的匹配的精度,同时以高速执行图像对准。 (附图标记)(AA)开始; (BB)结束; (S110)输入图像接收; (S115)积分图像生成; (S120)边缘分析; (S125)Hessian检测器特征检测; (S130)定向地图生成; (S140)定向边缘图生成; (S150)使用几何模糊进行采样; (S160)特征描述符生成
-
-
公开(公告)号:KR101921071B1
公开(公告)日:2018-11-22
申请号:KR1020170112810
申请日:2017-09-04
Applicant: 국방과학연구소
Abstract: 본발명에따른다중프레임에서의센서융합을통한 3차원객체의포즈추정방법은, 비균일하고넓게분포된라이다정보를사용하여객체의영역을정확히추적하기위해라이다의차원을 3차원에서 2차원으로감소시켜밀도를높이는단계; 차원(dimension)이감소된라이다정보를좌표계변환을통해카메라좌표계로변환하고, 잡음을제거하는단계; 상기잡음이제거되어직선형태로표현되는상기라이다정보의연속성을기준으로영역을분할하고상기객체의위치와방향을추정하는단계; 및상기추정된객체영역과방향을 2차원객체분류기와결합하여 3차원공간에서의객체를추정하는단계를포함하고, 다중프레임에서의센서융합을통한 3차원객체포즈추정방법을통해기존의 3차원객체포즈추정방법이가지는수작업에의한학습데이터생성, 클래스추가에따른선형적연산량증가등의문제점을극복할수 있다.
-
公开(公告)号:KR101907883B1
公开(公告)日:2018-10-16
申请号:KR1020170058182
申请日:2017-05-10
Applicant: 국방과학연구소
CPC classification number: G06T7/11 , G06T7/90 , G06T2207/10024 , G06T2207/10028 , G06T2207/30204
Abstract: 본발명은영상에서객체를추출및 분류하는방법에관한것으로, 2차원영상을촬영하는 2차원영상센서와상기촬영된 2차원영상으로부터특정객체를추출및 상기특정객체에대한클래스를분류하는 2차원영상처리부와 3차원영상을촬영하는 3차원영상센서와상기촬영된 3차원영상으로부터상기특정객체를추출및 상기특정객체에대한클래스를분류하는 3차원영상처리부와상기 2차원영상처리부에서추출된특정객체의클래스분류결과와, 상기 3차원영상처리부에서추출된특정객체의클래스분류결과를이용하여, 상기특정객체에대한최종클래스분류결과를산출하는융합처리부를포함한다.
-
公开(公告)号:KR101864127B1
公开(公告)日:2018-06-29
申请号:KR1020160114595
申请日:2016-09-06
Applicant: 국방과학연구소
Abstract: 본발명은무인차량주변의환경을매핑하는방법에대한것으로, 상기무인차량에구비된적어도하나의카메라로부터센싱된영상중 어느하나로부터기 설정된방식에따라슈퍼픽셀을추출하는단계와, 상기무인차량에구비된 3차원스캐너에서상기무인차량주변을감지한결과로부터깊이데이터및 3D 포인트데이터를추출하는단계와, 상기추출된슈퍼픽셀에, 기설정된투영행렬을이용하여상기깊이데이터및 3D 포인트데이터를투영하여상기슈퍼픽셀의각 위치에슈퍼픽셀인덱스를할당하는단계와, 할당된슈퍼픽셀인덱스에따라상기슈퍼픽셀을구성하는각 격자를군집화하는단계와, 상기슈퍼픽셀의각 격자군집을, 상기인식된장애물에근거하여활성화상태, 비활성화상태, 그리고상기활성화된상태또는비활성화상태로구분되지않은잠재적상태로구분하는단계와, 상기무인차량의이동속도및 회전각에근거하여현재시점 k의다음시점인 k+1 시점의각 격자군집의동적상태를예측하는단계와, 예측된동적상태에근거하여각 격자군집간에이동한파티클들을검출및, 검출된파티클들에따라상기다음시점의각 격자군집상태를예측하는단계, 및, 상기현재시점 k 이전시점인 k-1 시점에서예측된격자군집상태와, 현재시점 k에서측정된각 격자군집의상태를결합하여, 각격자군집의상태를갱신하는단계를포함하는것을특징으로한다.
-
公开(公告)号:KR1020180027242A
公开(公告)日:2018-03-14
申请号:KR1020160114595
申请日:2016-09-06
Applicant: 국방과학연구소
CPC classification number: G08G1/16 , G06T7/521 , G06T7/70 , G08G1/0104 , G08G1/048
Abstract: 본발명은무인차량주변의환경을매핑하는방법에대한것으로, 상기무인차량에구비된적어도하나의카메라로부터센싱된영상중 어느하나로부터기 설정된방식에따라슈퍼픽셀을추출하는단계와, 상기무인차량에구비된 3차원스캐너에서상기무인차량주변을감지한결과로부터깊이데이터및 3D 포인트데이터를추출하는단계와, 상기추출된슈퍼픽셀에, 기설정된투영행렬을이용하여상기깊이데이터및 3D 포인트데이터를투영하여상기슈퍼픽셀의각 위치에슈퍼픽셀인덱스를할당하는단계와, 할당된슈퍼픽셀인덱스에따라상기슈퍼픽셀을구성하는각 격자를군집화하는단계와, 상기슈퍼픽셀의각 격자군집을, 상기인식된장애물에근거하여활성화상태, 비활성화상태, 그리고상기활성화된상태또는비활성화상태로구분되지않은잠재적상태로구분하는단계와, 상기무인차량의이동속도및 회전각에근거하여현재시점 k의다음시점인 k+1 시점의각 격자군집의동적상태를예측하는단계와, 예측된동적상태에근거하여각 격자군집간에이동한파티클들을검출및, 검출된파티클들에따라상기다음시점의각 격자군집상태를예측하는단계, 및, 상기현재시점 k 이전시점인 k-1 시점에서예측된격자군집상태와, 현재시점 k에서측정된각 격자군집의상태를결합하여, 각격자군집의상태를갱신하는단계를포함하는것을특징으로한다.
Abstract translation: 本发明是关于如何映射周围的无人驾驶车辆环境,包括以下步骤:根据从由提供给无人驾驶汽车照相机感测的图像中的任何一个所述至少一个预定的方法提取超像素,无人驾驶车辆 扫描器的Eguzemodo非三维步骤从围绕感测所述无人驾驶车辆的结果中提取深度数据和3D点数据,并且在所提取的超像素,组深度数据和3D点数据通过使用所设定的投影矩阵 将超像素索引分配给超像素的每个位置的步骤,根据所分配的超像素索引对构成超像素的每个网格进行分组的步骤, 基于doenjang,活动状态,非活动状态和未被区分为激活状态或非活动状态的潜在状态 和移动速度的基础和所述旋转角度检测的相位和预测的动态状态的基础上,每个网格簇之间yidonghan颗粒来预测在当前时间k的第k + 1个点的下一时间的相应网格簇的动态状态,并且, 预测的根据检测到的粒子的下一次的相应网格集群状态,并且,在本时间k在较早的时间拥挤条件k-1时的估计的网格,针对每个网格挤在时间k所测量的电流 状态,并更新每个网格群集的状态。
-
-
-
-
-
-