Abstract:
본 발명은 저사양 실시간 동작을 위한 경량 다층 랜덤 포레스트 분류기에 관한 것으로서, 보다 구체적으로는 경량 다층 랜덤 포레스트(Lightweight multilayer random forest; LMRF) 분류기로서, 각 계층(layer)이 랜덤 포레스트(Random forest; RF)로 구성된 다층 구조(layer-by-layer structure)의 비-신경망 타입의 심층 모델이며, 각 계층이 미리 정해진 개수 이하의 트리로 구성된 것을 그 구성상의 특징으로 한다. 또한, 본 발명은 저사양 실시간 동작을 위한 경량 다층 랜덤 포레스트 분류기를 이용한 분류 방법에 관한 것으로서, 보다 구체적으로는 경량 다층 랜덤 포레스트(Lightweight multilayer random forest; LMRF) 분류기를 이용한 분류 방법으로서, (A) 각 계층(layer)이 랜덤 포레스트(Random forest; RF)로 구성된 다층 구조(layer-by-layer structure)의 비-신경망 타입의 심층 모델이며, 각 계층이 미리 정해진 개수 이하의 트리로 구성된 LMRF 분류기를 생성하는 단계; 및 (B) 상기 생성된 LMRF 분류기를 이용해 분류를 하는 단계를 포함하는 것을 그 구성상의 특징으로 한다. 본 발명에서 제안하고 있는 저사양 실시간 동작을 위한 경량 다층 랜덤 포레스트 분류기 및 이를 이용한 분류 방법에 따르면, 각 계층(layer)이 랜덤 포레스트(Random forest; RF)로 구성된 다층 구조(layer-by-layer structure)의 비-신경망 타입의 심층 모델을 구성하고, 각 계층을 미리 정해진 개수 이하의 트리로 구성함으로써, 기존의 DNN 모델에 비하여 적은 수의 하이퍼 파라미터로도 DNN과 비슷한 성능을 제공하며, 동일한 조건에서 사용 시 처리 시간이 DNN보다 더 빠르므로, 실시간 처리를 위한 분야에 적용할 수 있다.
Abstract:
본 발명에서 제안하고 있는 저사양 환경 시스템을 위한 실시간 동공 위치 검출 방법 및 장치에 따르면, 빠른 동공 검출을 위해 입력된 눈 영상에서 고속 반경 대칭 변환(FRST, Fast radial symmetry transform)을 적용하여 좌우 눈에 대한 동공 후보 영역을 추정하고, 동공 후보 영역 중에는 영상에서의 반사광이나 속눈썹 등의 노이즈에 의해 잘못된 영역을 포함하므로 이러한 영역을 효과적으로 배제시키고 최적의 동공 위치를 추정하기 위해서, 좌우 동공에 대한 시공간적 유사도를 추출하고, 이를 이용하여 최적의 양안 동공 위치를 결정함으로써, 고속처리를 위해 딥러닝 등의 알고리즘을 배제하고 최적화된 영상처리 알고리즘만을 이용하여 다양한 동공의 위치, 조명 밝기 변화, 부분적인 가려짐 및 안경을 착용한 대상에 대해서도 정확하게 동공의 위치를 검출할 수 있다.
Abstract:
본 발명에서 제안하고 있는 캐스케이드 회귀 포레스트의 단순화를 기반으로 한 에너지 효율적인 눈동자 추적 방법 및 장치에 따르면, 복수의 회귀 포레스트를 사용해 캐스케이드 방식의 멀티 레이어로 구성되며 coarse-to-fine 방식으로 눈동자 위치에 대해 학습된 초기 CCD-RF(a cascade coarse-to-fine regression forest)에, 특징 중요도 기반의 규칙 기여도에 따른 규칙 증류(rule distillation)를 적용해 경량화된 CCD-RF를 생성하며, 경량화된 CCD-RF를 이용해 이미지로부터 눈동자 위치를 예측함으로써, 불필요한 규칙 제거를 통해 강력한 성능을 유지하면서도 매개변수의 개수와 연산량을 줄이고 에너지 소모를 최소화할 수 있다.
Abstract:
본 발명에서 제안하고 있는 야간 환경에서의 운전자 보조 시스템을 위한 위험 보행자 검출 방법 및 시스템에 따르면, 스케일링 비율 및 보행자 탐색 영역을 설정하고 보행자 윈도우를 검출함으로써, 처리 시간을 단축하고 신속하게 보행자를 검출할 수 있으며, 차량의 진행 방향을 고려하여 기준선을 설정하고 위험 보행자를 판단함으로써, 보다 정확하게 보행자의 위험성을 결정할 수 있다.
Abstract:
PURPOSE: A method and a device for classifying an independent cell and a group cell from image information are provided to classify cell areas into an independent cell area and a group cell area, thereby increasing reliability for cell diagnosis. CONSTITUTION: Image information is inputted and divided into a plurality of sub areas(204). Each sub area is binarized using a threshold value which is adaptively set according to distribution of cell image information for each sub area so that image information is divided into cell areas and a background area(206). The first feature vector showing a round degree of a cell shape for each cell area, the second feature vector showing a fixed distance from the center of a cell to an edge, and the third feature vector showing a shape of a cell are obtained.