Abstract:
PURPOSE: An object detecting method of a PTZ camera is provided to stably detect an object in case a screen image of a PTZ camera is changed. CONSTITUTION: A PTZ(Pan, Tilt, Zoom) camera confirms an operation of pan, tilt, or zoom for an input image(S1). In case the event generates, the PTZ camera sets up a changed input image as a background image(S2). The PTZ camera removes ghost effect from an adaptive background modeling result image through motion history information(S3).
Abstract:
PURPOSE: An object detecting method of a PTZ camera is provided to stably detect an object in case a screen image of a PTZ camera is changed. CONSTITUTION: A PTZ(Pan, Tilt, Zoom) camera confirms an operation of pan, tilt, or zoom for an input image(S1). In case the event generates, the PTZ camera sets up a changed input image as a background image(S2). The PTZ camera removes ghost effect from an adaptive background modeling result image through motion history information(S3).
Abstract:
본 발명은 감시 카메라 영상에 대한 지능화 검색을 지원하기 위하여 다중 보행자를 안정적으로 감지 및 추적하고, 상기 다중 보행자 각각의 특성을 추출하여 보행자 특성에 기반한 영상 검색 기술을 제공한다. 또한, 본 발명은 감시 목표 지역에 설치되어 있는 다수의 감시 카메라로부터 실시간 영상을 입력 받아, 온라인 혹은 오프라인 영상 조회를 원하는 사용자가 검색하고자 하는 보행자 특성 정보를 입력하면 상기 특성 정보에 해당하는 보행자를 검출하여 온라인 비디오 영상 혹은 오프라인 대표 프레임 영상에 표시할 수 있다. 감시 카메라, 옵티컬 플로우, 배경 차감, 영상 검색
Abstract:
An apparatus and a method for extracting a region of a dynamic object are provided to obtain a silhouette image stably in spite of a change of illumination, thereby determining and extracting the region of the dynamic object accurately. An image data input unit(10) inputs background image data without motion of a dynamic object and input image data with motion of the dynamic object. A background model operation unit(22) creates a color value-based background model through gradual calculation of average and standard deviation by using the background image data. A dynamic object region extraction unit(30) extracts a region of the dynamic object from the converted input image data by using the color value-based background model and a color value of the input image data. A memory unit(50) stores all kinds of data including the image data. A controller(40) controls all of the units.
Abstract:
본 발명은 인체 영상에서 격자기반 접근을 통해 피부 영역을 검출하되 임의의 격자를 피부격자로 분류하는 기준이 되는 임계값을 카메라와 인체 영상의 거리에 따라 적응적으로 변화시킴으로써 강건하고 효과적으로 피부영역 검출할 수 있도록 한 인체 영상에서 격자기반 접근을 통한 피부 영역 검출 방법에 관한 것이다. 본 발명의 인체 영상에서 격자기반 접근을 통한 피부 영역 검출 방법은 실시간 입력되는 영상으로부터 배경영상을 차분하는 (a) 단계; 상기 (a) 단계에서 차분된 전체 영상의 전체 픽셀에 대한 전경픽셀의 비율과 상기 전경픽셀에 대한 피부픽셀의 비율을 계산하는 (b) 단계; 상기 (a) 단계에서 차분된 전체 영상을 소정 크기의 격자패치로 분할한 후에 분할된 각 격자패치 내의 전체 픽셀에 대한 전경픽셀의 비율과 격자패치 내 전경픽셀에 대한 피부픽셀의 비율을 계산하는 (c) 단계; 상기 (c) 단계에서 계산된 격자패치내의 상기 전경픽셀의 비율과 상기 피부픽셀의 비율을 상기 (b) 단계에서 계산된 각 비율에 따라 적응적으로 정해지는 임계값과 비교한 결과에 따라 각 격자패치를 전경격자, 피부격자 및 배경격자로 분류하는 (d) 단계 및 상기 (d) 단계에서 분류된 격자패치 기반에 의해 레이블링을 수행하여 관심 피부영역을 바운딩 박스로 추출하는 (e) 단계를 포함하여 이루어진다. 인간-컴퓨터 상호작용, 제스처 인터페이스, 움직임 감지, 배경 차분
Abstract:
본 발명은 동일 객체를 자동으로 검출하기 위해 색상 보정을 수행하는 감시 카메라에 관한 것이다. 특히, 본 발명은 서로 다른 조명 환경에서 촬영된 객체 간의 색상 비교를 위하여 서로 다른 조명의 차이를 분석하고, 상기 서로 다른 조명의 차이를 이용하여 보정 영상을 획득하는 색 보정 방법을 제공한다. 상기 색상 보정 방법을 제공함으로써 실시간으로 입력되는 감시 카메라에서 동일한 객체를 용이하게 검출할 수 있다. 색상 보정, 감시 카메라, 색상 패턴 보드, 변환 벡터
Abstract:
PURPOSE: A method and apparatus for correcting color in an image processing system are provided to correct colors of images which are taken in different environments. CONSTITUTION: A color correcting apparatus of an image processing system comprises a plurality of monitoring cameras(102_1~102_n) for taking a picture of an object from different photographing conditions, a conversion vector generating unit(106) produces illumination color vectors about the image from a reference monitoring camera and other cameras, and creating conversion vectors for each color patch by the produced illumination color vectors, and a color correction part(108) for correcting the images from other cameras using the image from the reference camera.
Abstract:
A method for distinction of color similarity for clothes in varying illumination and a security system of public entrance area based on clothes similarity are provided to steadily determine a color similarity between a clothes included in an image photographed under a different illumination surrounding by using an LBG algorithm. In a state where a learning model data is constructed, clothes video data based on more than 2 RGB taken by cameras having in the other location is collected(S30). The RGB data of the collected clothes image as described above converts into HSV data(S40). In HSV data of the converted each clothes image as described above, the color and chroma data of each pixel is expressed in the H-S two-dimensional space where the color is to an X-axis and the chroma is to an Y-axis(S50). An LBG(Linde-Buzo-Gray) algorithm is applied and a characteristic of distribution which is the color cluster is extracted(S60). A correspondence cluster is defined(S70). The average distance between the defined correspondence clusters as described above and the similarity value is calculated(S80). The calculated similarity value as described above is substituted to the constructed learning model data. A similarity between two clothes images is discriminated under a likelihood ratio base(S90).
Abstract:
A method for detecting a skin region by grid-based approach is provided to effectively perform a labelling a low resolution skin region by using a grid patch image storing a foreground and background information, and therefore reduce an unexpected artificial defect due to a noise. An image including a human body among a series of inputted background image, for example a background image already constructed is deducted from an image including a human body under the background image which is inputted from a camera on a real time base(S20). The rate of a foreground pixel and a rate of a skin pixel are calculated in an entire image obtained with a background differential(S30). An adaptive critical value is applied to the calculated ratio from previous step. Predetermined size, for example, 8*8 pixel is defined as a background grid, a skin grid, and a general foreground grid without skin(S40). A labelling is performed based on the defined grid patch image as described above(S50). A skin region of interest(ROI) is extracted(S60).
Abstract:
본 발명은 동적객체 추출방법 및 그 시스템에 관한 것으로, 특히 조명의 변화가 심한 연속영상에서 동적 객체를 안정적으로 추출하기 위하여 색상값(H) 기반의 배경모델을 생성하고, 픽셀의 색상값과 색상 기울기값을 이용하여 입력영상 데이터로부터 동적객체의 영역을 안정적으로 추출할 수 있는 동적객체 영역 추출방법 및 장치에 관한 것이다. 본 발명에 따른 동적객체 영역 추출방법은 동적객체의 움직임이 포함되지 않은 배경영상 데이터를 이용하여 색상값(H) 기반의 배경모델을 생성하는 단계와 상기 색상(H)과 색상 기울기값(▽H) 기반의 배경모델과 입력영상 데이터의 색상(H)과 색상 기울기값(▽H)을 이용하여 상기 변환된 입력영상 데이터로부터 동적객체 영역을 추출하는 단계를 포함하여 이루어지는 것을 특징으로 하며, 본 발명에 따른 동적객체 영역 추출장치는 동적객체의 움직임이 포함되지 않은 배경영상 데이터 및 동적객체의 움직임이 포함된 입력영상 데이터를 입력하기 위한 영상데이터 입력부와, 상기 배경영상 데이터를 이용하여 색상(H)과 색상 기울기값(▽H) 기반의 배경모델을 생성하는 배경영상 변환부와, 상기 색상(H)과 색상 기울기값(▽H) 기반의 배경모델과 상기 입력영상 데이터의 색상(H)과 색상 기울기값(▽H)을 이용하여 상기 변환된 입력영상 데이터로부터 동적객체 영역을 추출하는 동적객체 영역 추출부, 영상데이터 등의 각종 데이터를 저장하기 위한 메모리부 및 장치 전반을 제어하기 위한 제어부를 포함하여 이루어지는 것을 특징으로 한다. 동적객체, 영역 인식