Abstract:
The present invention relates to a super-resolution-based high-precision video tracking method for a video tracker, and a high-precision video tracking apparatus using the same. The high-precision video tracking method comprises the steps of: extracting a target image from a input image (t-1) and determining the size of the extracted target image; performing a first interpolation of creating 1/2 subpixels and a second interpolation of creating 1/4 subpixels, according to the determined size of the target image; selecting one among a target image created by pixels, a target image created by the first interpolation or a target image created by the second interpolation according to the determined size of the target image and updating a reference image; extracting, from a current input image (t), a search area set to find a target image and determining the size of the extracted search area; performing the first and second interpolations according to the determined size of the search area; and selecting one among the search area created by pixels, a search area created by the first interpolation, and a search area created by the second interpolation according to the size of the updated reference image, matching the selected one with a corresponding reference image, and determining the location of a target in the search area. Accordingly, the present invention can improve real-time properties by minimizing load according to the generation of a super-resolution image while enhancing the accuracy of displacement calculation of a target by amplifying only high-frequency components of the target except for a background.
Abstract:
본 발명에 따른 영상 표적 추출 시스템은 동일 시간과 동일 장면의 원본 영상을 서로 다른 주파수 대역으로 획득하는 복수의 영상 센서, 차영상을 이용한 관심 영역 검출법에 따라 상기 각 원본 영상에 대해 프레임간 정합, 차영상 생성, 이진화 순으로 영상 처리한 후 상기 영상 처리된 각 처리 영상을 합성하여 하나의 통합 영상을 생성하고 상기 통합 영상으로부터 관심 영역(ROI, Region Of Interest)을 추출하는 관심 영역 추출기 및 상기 각 원본 영상에서 상기 관심 영역에 대응되는 영역의 유사도 영상과 상기 각 처리 영상에서 상기 관심 영역에 대응되는 영역의 관심 처리 영상을 각 영상 센서별로 매칭시킨 후 합쳐 매칭 영상을 생성하고, 상기 통합 영상에서 상기 관심 영역의 인접도 영상을 상기 매칭 영상과 합쳐 상기 관심 영역에서 표적과 배경을 분� �하고 상기 표적을 추출하는 표적 분할기를 포함함으로써, 영상 내에서 표적을 정확하게 추출할 수 있다.
Abstract:
본 발명의 다축 광학계의 축 정렬 점검장치에는 이종 파장대역으로부터 타겟을 형성해주는 공통 타겟 블록(10)과, 시차(視差)에 의한 영향이 없는 경로를 형성해주도록 광학축 오차 정렬이 이루어지는 점검 광학장비(100)의 방향으로 평핼하게 반사시켜주는 포물경 블록(20)이 포함되고, 점검 광학장비(100)에서 얻은 대역1 영상과 대역2 영상이 타겟을 기준으로 십자망선의 중앙화소위치 좌표가 구해진 후, 두 광학계의 정렬오차가 알고 있는 시계(FOV:Field of View)와 전시기의 화소수로부터 계산됨으로써, 다중 파장용 복합광학계의 광학 축 정렬점검이 이루어지고, 이동 가능하면서 저가형으로 용이하게 제작되는 특징을 갖는다.
Abstract:
The present invention relates to a ground target classification method and a ground target classification apparatus using the same. The ground target classification method comprises the steps of: (a) processing thermal imagery including a ground target into gray imagery to extract a local feature, and processing the thermal imagery using a segmentation mask to extract a shape feature; (b) by using a support vector machine (SVM) classifier, calculating a first classification result based on the local feature and calculating a second classification result based on the shape feature; (c) extracting a first confidence value for the SVM classifier, that calculates the first classification result, based on the first classification result and extracting a second confidence value for the SVM classifier, that calculates the second classification result, based on the second classification result; (d) performing confidence-based result fusion using the first confidence value and the second confidence value; and (e) performing the classification of the ground targets using the result obtained by performing the confidence-based result fusion. Accordingly, the present invention analyzes confidence by using the SVM classification results based on the local feature and shape feature and applies hierarchical result fusion techniques using confidence to fuse advantages of each feature, thereby deriving optimized ground target classification results. [Reference numerals] (AA) Start; (BB) End; (S110) Receive input imagery(thermal imagery); (S124) Process into gray input imagery; (S126) Process by using a target segmentation mask; (S134) Extract a local feature; (S136) Extract a shape feature; (S144) Calculate a first classification result by an SVM classifier; (S146) Calculate a second classification result by the SVM classifier; (S154) Extract a first confidence value; (S156) Extract a second confidence value; (S160) Fuse confidence-based results; (S170) Fuse hierarchical results
Abstract:
본 발명은 집합전지를 형성하도록 서로 인접하게 배치되고 서로 전기적으로 연결되어 전기 기기에 전력을 공급하는 복수의 단위전지, 및 적어도 일부가 상기 집합전지의 외주면에 부착되어 폐회로를 형성하고 적어도 하나의 상기 단위전지에서 이상(異常) 발열(發熱)을 일으켜 인접한 단위전지와 온도차 발생시 상기 폐회로 내에서 열기전력(熱起電力)을 발생시켜 상기 이상을 검출하도록 이루어지는 검출장치를 포함하는 이상 전지 검출 시스템을 제공한다.
Abstract:
The present invention relates to a multi-sensor image alignment method of an image detection system and a multi-sensor image alignment apparatus using the same. The multi-sensor image alignment method of the image detection system includes the following steps of: (a) receiving multi-sensor input images respectively from multi-sensors, generating an oriented map and an oriented edge map from the received multi-sensor input images, generating feature information of the images by using the generated oriented map and the generated oriented edge map, and generating a feature descriptor by using the feature information of the images; (b) performing feature matching between multi-sensor images by using the generated feature descriptor; and (c) performing homography calculation and generating an image which is aligned about the multi-sensor input images. The present invention like the forementioned is able to improve the accuracy of the matching between the multi-sensor images while performing the image alignment at high speed by using the new feature descriptor which is appropriate to the matching between the multi-sensor images. [Reference numerals] (AA) Start; (BB) End; (S110) Input image reception; (S115) Integral image generation; (S120) Edge Analysis; (S125) Hessian detector feature detection; (S130) Oriented map generation; (S140) Oriented edge map generation; (S150) Sampling using a geometric blur; (S160) Feature descriptor generation