Abstract:
PURPOSE: An indoor positioning system and an indoor positioning method are provided to accurately confirm the position of a user by estimating the position of the user using acceleration and angular acceleration. CONSTITUTION: An indoor positioning system comprises an inertia measurement device(1) and a mobile terminal(10). The inertia measurement device measures the acceleration and angular acceleration of a user using an acceleration sensor(2) and an angular acceleration sensor(3). The mobile terminal estimates the position of the user using the measured acceleration and angular acceleration and corrects the estimated position of the user using simplified map data.
Abstract:
본 발명은 안전모 착용 비전 감시 시스템 및 방법에 관한 것으로서, 보다 상세하게는 공사현장, 자전거 도로 또는 이륜차 주행등에서 안전모를 착용하지 아니하여 인명사고로 이어지는 것을 방지하기 위하여 카메라 감시구역내의 안전모 미착용자를 인식하고, 안전모 미착용자에게 경고 메시지를 전송함으로써 안전사고를 예방할 수 있는 안전모 착용 비전 감시 시스템 및 방법에 관한 것이다. 본 발명은 건설공사현장의 근로자나 인라인 스케이트장등의 안전모 미착용자의 인명사고를 예방할 수 있는 효과가 있으며, 저해상도 카메라를 이용하여 목적을 달성함으로써 비용절감면에서 효과적이다. 안전모, 카메라, 썸네일 영상
Abstract:
PURPOSE: A vision watching system and a method for a safety hat are provided to prevent the accident resulting from the non-wearing of a safety hat. CONSTITUTION: A reception unit receives an image signal of a camera monitoring region(100), and a processing unit(300) judges a person from the image signal based on the size and contour line of an object. On the basis of an RGB(Red,Green,Blue) value and/or a color value of an HSV(Hue,Saturation,Value), the processing unit judges the wearing of the safety hat. A transmission unit outputs a PTZ(Pan-Tilt-Zoom) camera control signal for obtaining a thumbnail image of a human who does not wear a safety hat.
Abstract:
기준 좌표상의 시각적 이미지를 이용한 객체 위치 측정 방법이 개시된다. 본 발명은 다중 비주얼 이미지들을 사용하는 객체의 위치측정을 위한 효과적인 방법에 관한 것으로서, 이미징 장치들의 주밍(zooming)과 패닝(panning)을 지원하는 평행 투사 모델을 제안한다. 본 발명은 객체 위치와 기준 좌표 사이의 관계를 창출하기 위한 가상 뷰어블 평면을 정의한다. 본 발명에서 요구되는 기준 좌표는 예비-추정(pre-estimnation) 과정으로부터 얻어질 수 있는 대략적인 추정일 수 있다. 본 발명은 계산적 복잡성이 완화된 반복적인 접근을 통해, 위치측정 에러를 최소화한다. 또한, 디지털 이미지 장치들의 비선형 왜곡은 반복적인 위치측정 과정에서 보상될 수 있다. 객체, 이미지, 주밍, 패닝, 위치측정, 추정
Abstract:
A method for classifying leafs by using venation feature points is provided to extract the venation feature points and classify and store the leafs according to the venation having the extracted feature points, thereby enabling a user to search a plant exactly having a venation including similar feature points. A method for classifying leafs by using venation feature points comprises the following steps of: extracting a sample image for a venation of a leaf through a extracting unit(S401); extracting a BP(Branching Point) and an EP(Ending Point) as feature points by applying a CSS(Curvature Scale Space Corner Detection) algorithm to the sample image(S405); classifying the BP and the EP through an analyzing unit(S407); calculating density of the extracted feature points through non-parametric estimation method by using a Parzen window, and confirming whether the feature points are distributed in a linear form or distributed around one point(S409); confirming vertical distribution of the feature points, determining the feature point as a parallel venation if the feature points are distributed around upper and lower one point, and determining the feature point as a venation if the feature points are distributed in the linear form(S410); if parallel venation, confirming vertical and horizontal distribution of the BP(S420) and determining whether density of the BP is upwardly inclined and lower density is distributed in a linear form(S425); and if the lower density of the BP is present in the linear form, classifying the feature points as a second parallel venation, and classifying the feature points as a first parallel venation if the density of the BP is upwardly distributed and the lower density is distributed around one point(S427,S428).
Abstract:
PURPOSE: An apparatus and method for generating metadata for a surveillance system are provided to exchange analysis information between intelligent surveillance systems. CONSTITUTION: A data receiving unit(110) receives a service image data from a plurality of intelligence surveillance systems using a communication protocol. A data analysis unit(120) extracts data information from the service image data. A metadata generation unit(130) generates metadata by applying the extracted information to the service image data tag.
Abstract:
본 발명은 지능형 감시 시스템 및 방법에 관한 것으로서, 보다 상세하게는 영상 정보 분석을 통해 위험 상황을 스스로 파악하고, 위험 상황에 알맞게 주변 카메라 모듈에 명령을 내려 카메라의 PTZ(Pan-tilt-zoom) 기능을 통한 영상 확보를 할 수 감시 시스템 및 방법에 관한 것이다. 본 발명에 따른 지능형 감시 시스템 및 방법에 의하면 관리자의 기본적인 모니터링만으로도 다채널, 다구역 감시가 가능하고 위험 상황 발생시 필요한 영상을 즉각적으로 확보할 수 있는 장점이 있다. 객체 추적(Object tracking), 탬퍼링(Tampering), 영상 처리(Image Processing)
Abstract:
PURPOSE: Intelligent surveillance system and method are provided to grasp dangerous situations through image information analysis. CONSTITUTION: An analysis unit(231) recognizes dangerous situations and distinguishes objects. An object tracking unit(232) traces the location of the position and movement route of the object. A camera phase analysis unit(233) extracts the camera including an object current position. A transmission unit(234) outputs the signal for controlling the PTZ camera.
Abstract:
본 발명은 서로 다른 조명 환경하에서 촬영된 영상에 포함된 의상들 사이의 색상 유사성을 LBG 알고리즘을 이용하여 안정적으로 판별할 수 있도록 한 조명변화 환경하에서 촬영된 다중 영상에서 의상 색상 유사성 판별 방법에 관한 것이다. 본 발명의 조명변화 환경하에서 촬영된 다중 영상에서 의상 색상 유사성 판별 방법은 HSV 컬러모델로 표현된 2 이상의 의상 영상의 각 픽셀 정보를 HS 2차원 공간 상에 분포시키는 (a) 단계; 상기 (a) 단계에서 분포된 각 픽셀 정보의 분포 특성에 따른 각 의상 영상에서의 색상 클러스터를 LBG 알고리즘을 적용하여 추출하는 (b) 단계; 상기 (b) 단계에서 추출된 각 의상 영상에서의 색상 클러스터 상호 간의 대응 클러스터를 정의하는 (c) 단계; 상기 (c) 단계에서 정의된 대응 클러스터간의 평균 거리를 지정하여 유사도값을 산출하는 (d) 단계 및 상기 (d) 단계에서 산출된 유사도값을 미리 구축된 학습 모델 데이터에 대입하여 두 의상 영상의 유사 여부를 판별하는 (e) 단계를 포함하여 이루어진다. 본 발명의 실시 예에인 공동현관 안전 시스템에서는 현관과 복도 두 영역을 감시하는 각기 독립적인 두 대의 카메라 영상에서 상기 단계의 의상 색상 유사성 판별 방법을 적용하여 승인된 보행자와 미승인 보행자를 판별한다. 의상, 색상, 조명, HSV, 공간 분포, 색상 클러스터, LBG, 비모수
Abstract:
A real-time target detection method is provided to remove the memory bottleneck state and to increase the processing speed by optimizing the memory application and the processing unit modeling. A real-time target detection method comprises followings. A target or back ground is detected to the preprocessed arbitrary pixel based on a library. Target samples or back ground samples are extracted from the target or the back ground to refine the library(step4). The step of refining library has a step of making a band list effective for the pixel based on the contribution factor. The step of detecting the target or the back ground is as follows. The effective band list is loaded from the refined library. The coefficient of correlation is saved from the spectrum envelope and the library basing on the list of the effective band. The target or the back ground is determined based on the size of the coefficient of the correlation.