Abstract:
PURPOSE: An original image restoration device of a captioned region using block matching and a restoring method thereof are provided to reuse the captioned image and make it possible to insert other caption by determining restoration direction and automatically restoring the captioned region to the original image. CONSTITUTION: A scene change data extractor(11) extracts a video scene change data from an external video data input. A caption data extractor(12) extracts a caption data to be restored from the video data. A restoration direction determiner(13) determines the restoration direction using the extracted video scene change data and the first and the last frame of the caption. An original image restorer(14) restores the original image through block matching the extracted caption data for each frame.
Abstract:
PURPOSE: A method for searching an image using a direction outline map is provided to improve speed and efficiency of searching. CONSTITUTION: A method for searching an image using a direction outline map includes an image inputting procedure, a feature extracting procedure, a storing procedure, and a searching procedure. The image inputting procedure is to read a digitalized still image and moving image. The feature extracting procedure is to analyze the inputted image content to draw a direction outline map. The storing procedure is to store the drawn direction outline map. The searching procedure is to search required data based on the resemblance of the direction outline map to search a want data.
Abstract:
본 발명은 와이.유.브이(YUV) 공간에서 컬러 특성 분포를 이용한 유사도 측정 방법에 관한 것으로서, 본 발명에서 제공하는 유사도 측정 방법은 비디오 영상이 입력되면 그 입력된 비디오 영상과 비교 기준이 되는 쿼리 영상에 대해 컬러 채널의 평균값, 표준편차, 스큐의 3제곱근을 구하고, 그들의 차이를 구해 상기 비디오 영상에 대한 Y,U,V 컬러 공간의 1, 2, 3차 컬러 분포 모멘트를 추출하는 제 1 단계와, 상기 제 1 단계에서 추출된 9개의 컬러 분포 모멘트를 신경망에 입력하여 기준 영상에 대한 비디오 영상의 유사도를 측정하는 제 2 단계로 구성되어, 기존의 히스토그램 기반 방법 보다 검색 결과가 우수하고, 색인을 위해서 별도로 컬러 공간 변환을 할 필요가 없으며 색인 데이터 크기 또한 적으므로 검색 속도도 매우 빠르며, 가중치 설정값(weight set) 추 출의 애매성을 제거하여, 기존의 히스토그램 기반 방법보다 조명의 변화, 영상 입력 장치에 따라 발생하는 미묘한 차이에 대해서도 신뢰적인(robust) 결과를 보인다는 장점이 있다.
Abstract:
본 발명은 와이.유.브이(YUV) 공간에서 컬러 특성 분포를 이용한 유사도 측정 방법에 관한 것으로서, 본 발명에서 제공하는 유사도 측정 방법은 비디오 영상이 입력되면 그 입력된 비디오 영상과 비교 기준이 되는 쿼리 영상에 대해 컬러 채널의 평균값, 표준편차, 스큐의 3제곱근을 구하고, 그들의 차이를 구해 상기 비디오 영상에 대한 Y,U,V 컬러 공간의 1, 2, 3차 컬러 분포 모멘트를 추출하는 제 1 단계와, 상기 제 1 단계에서 추출된 9개의 컬러 분포 모멘트를 신경망에 입력하여 기준 영상에 대한 비디오 영상의 유사도를 측정하는 제 2 단계로 구성되어, 기존의 히스토그램 기반 방법 보다 검색 결과가 우수하고, 색인을 위해서 별도로 컬러 공간 변환을 할 필요가 없으며 색인 데이터 크기 또한 적으므로 검색 속도도 매우 빠르며, 가중치 설정값(weight set) 추 출의 애매성을 제거하여, 기존의 히스토그램 기반 방법보다 조명의 변화, 영상 입력 장치에 따라 발생하는 미묘한 차이에 대해서도 신뢰적인(robust) 결과를 보인다는 장점이 있다.
Abstract:
A method and an apparatus for estimating a camera motion include a frame picture memory unit for storing a plurality of moving picture frames, a buffer for sequentially extracting the frames and storing them, a block division unit for dividing each of the frames stored in the buffer into a plurality of blocks, a mean picture generation unit for generating horizontal and vertical mean pictures using the blocks, a horizontal and a vertical mean picture memory unit for storing the data of the horizontal and vertical mean pictures, a motion vector extraction unit for extracting motion vectors from the blocks using horizontal and vertical mean picture data, a motion vector memory unit for storing the data of the motion vectors, and a camera motion estimation unit for estimating a camera motion using the motion vector data.
Abstract:
PURPOSE: A method for detecting eyes from a face image by an optimum binary threshold search is provided to increase the adaptability of an input gray level face image to an illuminating state and maximize the performance of eye detection. CONSTITUTION: A gray level face image is inputted to a computer(S100). A threshold is generated according to a threshold search direction for making the input gray level face image binary(S200). An eye pair is detected from the black and white face image(S300). If eye pair information is output, the eye pair is finally output as eyes detected from the input gray level face image(S500). If the eye pair detection fails, the threshold search direction is decided to execute threshold generation and binary process again(S400).
Abstract:
PURPOSE: An apparatus and a method for discriminating camera motion are provided to improve the speed of discriminating the camera motion by combining motion vectors extracted from horizontal and vertical mean video. CONSTITUTION: A frame video memory(20) divides a plurality of moving picture frames(10) into each frame for storing the divided frames. A buffer(21) extracts and stores the frames stored in the frame video memory in order. A block dividing unit(22) segments one frame stored in the buffer into a plurality of blocks. A mean video generator(31) manufactures the mean video for extracting camera motion by using the segmented block. A horizontal mean video memory(32) and a vertical mean video memory stores horizontal mean video and vertical mean video. A motion vector extracting unit(441) extracts motion vectors existing in the block by using the data stored in the horizontal mean video memory and the vertical mean video memory. A motion vector memory(42) stores the motion vector data. A camera motion discriminator(51) discriminates camera motion by using the data of the motion vector memory.
Abstract:
PURPOSE: A method for encoding and decoding camera information for compositing stereoscopic real moving picture information and a computer graphic image is provided to store location moving information and camera viewpoint change information together with contents, thereby easily and accurately combining the contents with the computer graphic image. CONSTITUTION: Camera information(310) of the corresponding frame of an image currently being photographed is sensed and inputted. A difference in each component between camera information of the current frame and camera information of the previous frame is calculated for obtaining camera change information(330) between the frames. The camera change information is encoded for compressively storing image contents and the encoded camera information. The encoded camera information if the corresponding frame is updated to the camera information of the previous camera information.
Abstract:
PURPOSE: Image DB browsing and sorting methods on the basis of image feeling is provided to carry out the browsing more effectively and more rapidly by carrying out the sorting on the basis of the contents of the images rather than external characteristics. CONSTITUTION: A method for sorting image DB on the basis of image feeling includes the steps of measuring the number of edge pixels of an object in still images for measuring feeling degree of the still images of which the edge pixel number is evaluated, and sorting the measured feeling degree measurement values according to a sorting order, wherein the feeling degree measurement is carried out by the steps of n-dimensional Wavelet Transform via a high pass filter to obtain edge information on the object in the still images(S310), and measuring the number of the edge pixels in the still images after removing noise from the still images by the Sobel operator(S320,S330).
Abstract:
본 발명은 디지털 동영상 데이터를 그 내용에 기반하여 자동으로 분할, 구조화하고, 분할된 단위 동영상으로부터 대표프레임을 선정함으로써 효율적이고 유연한 동영상의 검색 및 브라우징 서비스를 제공할 수 있도록 하는 디지털 동영상 데이터 자동분할장치 및 그 방법에 관한 것이다. 이와같은 본 발명은 디지털 동영상 데이터에 나타나는 장면전환을 종래의 발명들에 비하여 보다 정확하게 검출할 수 있을 뿐 아니라, 페이드 아웃, 페이드 인 등의 점진적인 장면전환점도 검출이 가능하여 보다 정확한 동영상의 구조화가 가능하다. 또한 내용적으로 의미있는 대표프레임의 선정이 가능하여 검색 및 브라우징 서비스의 질을 향상 시킬 수 있다.