Abstract:
A method and an apparatus for estimating a camera motion include a frame picture memory unit for storing a plurality of moving picture frames, a buffer for sequentially extracting the frames and storing them, a block division unit for dividing each of the frames stored in the buffer into a plurality of blocks, a mean picture generation unit for generating horizontal and vertical mean pictures using the blocks, a horizontal and a vertical mean picture memory unit for storing the data of the horizontal and vertical mean pictures, a motion vector extraction unit for extracting motion vectors from the blocks using horizontal and vertical mean picture data, a motion vector memory unit for storing the data of the motion vectors, and a camera motion estimation unit for estimating a camera motion using the motion vector data.
Abstract:
PURPOSE: A method for detecting eyes from a face image by an optimum binary threshold search is provided to increase the adaptability of an input gray level face image to an illuminating state and maximize the performance of eye detection. CONSTITUTION: A gray level face image is inputted to a computer(S100). A threshold is generated according to a threshold search direction for making the input gray level face image binary(S200). An eye pair is detected from the black and white face image(S300). If eye pair information is output, the eye pair is finally output as eyes detected from the input gray level face image(S500). If the eye pair detection fails, the threshold search direction is decided to execute threshold generation and binary process again(S400).
Abstract:
PURPOSE: An apparatus and a method for discriminating camera motion are provided to improve the speed of discriminating the camera motion by combining motion vectors extracted from horizontal and vertical mean video. CONSTITUTION: A frame video memory(20) divides a plurality of moving picture frames(10) into each frame for storing the divided frames. A buffer(21) extracts and stores the frames stored in the frame video memory in order. A block dividing unit(22) segments one frame stored in the buffer into a plurality of blocks. A mean video generator(31) manufactures the mean video for extracting camera motion by using the segmented block. A horizontal mean video memory(32) and a vertical mean video memory stores horizontal mean video and vertical mean video. A motion vector extracting unit(441) extracts motion vectors existing in the block by using the data stored in the horizontal mean video memory and the vertical mean video memory. A motion vector memory(42) stores the motion vector data. A camera motion discriminator(51) discriminates camera motion by using the data of the motion vector memory.
Abstract:
PURPOSE: A method for encoding and decoding camera information for compositing stereoscopic real moving picture information and a computer graphic image is provided to store location moving information and camera viewpoint change information together with contents, thereby easily and accurately combining the contents with the computer graphic image. CONSTITUTION: Camera information(310) of the corresponding frame of an image currently being photographed is sensed and inputted. A difference in each component between camera information of the current frame and camera information of the previous frame is calculated for obtaining camera change information(330) between the frames. The camera change information is encoded for compressively storing image contents and the encoded camera information. The encoded camera information if the corresponding frame is updated to the camera information of the previous camera information.
Abstract:
PURPOSE: A model basis vehicle tracing apparatus and method thereof is provided to trace vehicle having variable speed, changeable shape and size even at video clip by using the tracing apparatus based on model. CONSTITUTION: A video clip input part(10) is there. An initial model generating part(20) generates an initial color model and an edge model through sampling of object region at first frame of video clip which is input from the video clip input part(10). A characteristic abstraction part(30) abstracts characteristic through distance transformation of edge picture at each frame of video clip which is input from the video clip input part(10). A model positioning part(40) decides model position using the result of characteristic abstraction which is abstracted by the edge model and the color model and the characteristic abstraction part(30). An object abstraction and model modification part(50) abstracts objects from model position and an input frame decided and modifies the edge model and the color model to use at the next frame.
Abstract:
본 발명은 회전 특성을 이용한 손 모양 인식 장치 및 그 방법에 관한 것으로서, 손 모양의 회전 특성을 고려한 특징 값을 특징 추출용 마스크를 이용하여 추출하고, 이를 바탕으로 신경망을 이용해 수화의 정적인 손 모양을 인식하는데, 이는 입력 영상과 손 모양이 위치한 영역의 일정 최소 경계 직사각형(MBR) 위치 정보가 사용자나 이전 단계에 의해서 미리 정해져 있을 경우, 신경망을 이용한 손 모양의 이치화를 수행하고 나서, 그 손 모양을 회전시키고 특징 추출용 마스크를 고정시킨 채 회전 변형을 고려한 특징 값을 추출한 후, 그 추출된 특징 값을 받아 신경망에서 학습하여 손 모양을 인식함으로써, 컴퓨터와 사람간의 사람의 수화를 통한 상호 정보 전달에 기여할 수가 있다.
Abstract:
PURPOSE: A gesture recognizing system and method in accordance with the trace analysis on polar coordinates is provided to pursue the motion of hand by using the natural color information included in the hand and to recognize the obtained information as the dynamic pattern. CONSTITUTION: A gesture recognizing system and method in accordance with the trace analysis on polar coordinates comprises a hand region extractor(11), a key-gesture spotter(12) and a gesture recognizer(13). The hand region extractor(11) separates the hand region from the video image inputted continuously and extracts the dynamic gesture. The key-gesture spotter(12) separates the key-gesture which is the meaning gesture from the dynamic gesture. The gesture recognizer(13) extracts the command is meant by the key-gesture. A gesture identification method in accordance with the track analysis on polar coordinates comprises the steps of;inputting the hand motion gesture image which means the specific command;separating the hand region from the hand motion gesture image and obtaining a track of gesture;separating the key-gesture which is the meaning gesture from the track of gesture;and extracting the command is meant by the key-gesture.
Abstract:
본 발명은 회전 특성을 이용한 손 모양 인식장치 및 그 방법에 관한 것이다. 손 모양의 회전 특성을 고려한 특징 값을 특징 추출용 마스크를 이용하여 추출하고, 이를 바탕으로 신경망을 이용해 수화의 정적인 손 모양을 인식한다. 이는 입력 영상과 손 모양이 위치한 영역의 일정 최소 경계 직사각형(MBR) 위치 정보가 사용자나 이전 단계에 의해서 미리 정해져 있을 경우, 신경망을 이용한 손 모양의 이치화를 수행하고 나서, 그 손 모양을 회전시키고 특징 추출용 마스크를 고정시킨 채 회전 변형을 고려한 특징 값을 추출한 후, 그 추출된 특징 값을 받아 신경망에서 학습하여 손 모양을 인식한다. 따라서, 컴퓨터와 사람간의 사람의 수화를 통한 상호 정보 전달에 기여할 수가 있다.
Abstract:
The golf T-shot swing motion analyzing system comprises a shot analyzer 2, a weight distribution measuring device 3, and an image analyzer 4. The shot form analyzer 2 finds out the velocity and direction of the golf club and the golf ball by analyzing the image detected by a photo-detector. The weight distribution measuring device 3 finds out the change of the body weight distribution when swing the T-shot. The image analyzer 4 takes the swing image and finds out the necessary information to correct the swing form.
Abstract:
본 발명은 차량의 번호판을 인식하는 시스템으로써, 특히 정지 또는 운행중인 차량의 번호판을 실시간에 자동으로 인식하는 차량 번호판 자동인식 시스템에 관한 것이다. 우리나라의 보유차량이 늘어남에 따라 차량을 이용한 범죄는 나날이 늘고있는 실이며 범되차량을 검거하기 위하여 안하은 인력이 동원되어야 하며, 주차장 및 톨게이트에서 차량을 관리하기 위하여 많은 차량관리 인원이 요구되며 특히 톨게이트애서는 매표를 위한 대기로 인하여 많은 연료 및 시간이 낭비되는 문제점이 있었다. 상기한 문제점을 해결하기 위한 본 발명의 번호판 자동인식 시스템은 루프코일과, 루프코일 감지기와, 영상 포착기와, 영상포착 카메라와, 적외선 스트로브와, 영상 인식기와, 영상검색 전송기와, 영상및 데이타 표시기로 구성된다. 상기와 같은 본 발명은 도로상에 설치하여 범되차량을 실시간에 검거하여 민생치안에 이바지하며 톨게이트나 주차장 등에 설치하여 차량관리를 자동화함으로 국민생활에 편리성을 제고하여 사회발전에 이바지할 수 있는 효과가 있다.