Abstract:
PURPOSE: A moving object division device and method of compression image is provided to directly divide a moving object of a compression image without completely decoding the image compressed by MPEG-1/2 compression standard. CONSTITUTION: A moving object division device of compression image comprises a DC image reconstructor(1), a DC image divider(2), a moving vector extractor(3) and a time-space divider(4). The DC image reconstructor(1) decodes a portion of bit columns of a compression image and extracts DC coefficient of discrete cosine transform per respect block to reconstruct it as a compressed DC image. The DC image divider(2) divides a moving object using the reconstructed DC image. The moving vector extractor(3) extracts a moving vector by decoding a portion of bit columns of the compression image. The time-space divider(4) remove a mis-extracted moving object using the moving vector.
Abstract:
본 발명은 영상내의 전역 움직임(global motion)이 유발되는 이동 카메라 환경에서 인접 영상의 교차 상관관계 정보를 이용하므로서 카메라의 이동에 따른 자가 움직임 에너지(ego-motion energy)를 보상하여 이동 물체만을 검출 및 추적할 수 있는 이동 카메라 환경에서의 움직임 정보에 기반한 이동물체의 검출 장치 및 그 검출 방법에 관한 것이다. 종래의 이동 물체 추적 기법은 자가 움직임 에너지를 보상하는데 있어서, 카메라의 사전 설치 정보를 참조하여, 3차원 실 좌표(real world coordinate)를 2차원 영상 평면의 좌표계로 변화하는 연산을 행한다. 이로 인하여, 이동물체 추적 시스템을 구현하는데 있어서, 카메라의 설치환경에 제약을 받으며 매우 많은 양의 부동소수점 연산이 필요하여 전용 하드웨어의 구현이 복잡하다는 단점이 있다. 따라서, 본 발명은 인접 영상간 나선 탐색에(spiral search) 의하여 교차 상관관계를 계산하므로써, 신속하게 자가 움직임 에너지를 보상하여 이동 물체에서 발생된 움직임 에너지를 효율적으로 검출할 수 있는 이동 카메라 환경에서의 이동 물체의 움직임 검출 장치 및 그 검출 방법을 제시한다.
Abstract:
PURPOSE: An apparatus and a method for searching video using meaning information are provided to search a desired video easily among a large volume of video data by efficiently indexing through meaning information, that is, the number of moving things, color information, moving speed etc. CONSTITUTION: The apparatus for searching video using meaning information includes following units. An analog video acquisition unit(1) is a closed circuit TV(CC-TV) or a CCD camera generally used, produces an analog video signal and transmits the signal to an A/D conversion unit(2). The A/D conversion unit(2) converts the inputted analog signal into a digital signal and transmits the signal to a moving things region division and tracing unit(3). The moving things region division and tracing unit(3) divides the region and traces the moving things and transmits the coordinate of the moving things region to a meaning information extracting unit(4). The meaning information extracting unit(4) calculates the trace of the moving things according to the center of gravity and color information of materials corresponding to the meaning information.
Abstract:
PURPOSE: An apparatus and a method for searching video using meaning information are provided to search a desired video easily among a large volume of video data by efficiently indexing through meaning information, that is, the number of moving things, color information, moving speed etc. CONSTITUTION: The apparatus for searching video using meaning information includes following units. An analog video acquisition unit(1) is a closed circuit TV(CC-TV) or a CCD camera generally used, produces an analog video signal and transmits the signal to an A/D conversion unit(2). The A/D conversion unit(2) converts the inputted analog signal into a digital signal and transmits the signal to a moving things region division and tracing unit(3). The moving things region division and tracing unit(3) divides the region and traces the moving things and transmits the coordinate of the moving things region to a meaning information extracting unit(4). The meaning information extracting unit(4) calculates the trace of the moving things according to the center of gravity and color information of materials corresponding to the meaning information.
Abstract:
PURPOSE: An individual motion tracking method of a motion object in active camera environment is provided to be capable of tracking and detecting the individual motions for a plurality of motion objects regardless of the preset information of the camera. CONSTITUTION: First, corner point detecting operation is performed from an input current image(21), and then a motion vector is obtained by comparing the features of the corner points(22). Next, the motion vector operation is performed for all the corner points(23). Then, clustering is performed using the position, movement amount and movement angle of the motion vectors as parameters(24). Next, the clustered vectors are purified by removing motion vectors remarkably different in positions and movement angle from the cluster(25). Then, respective convex hulls are obtained from the purified cluster vector(26). It is determined whether motion object areas separated by the convex hulls are effective areas(27). Finally, the motion object areas are discarded or the next motion track is estimated in accordance with the result of the (27) step(28).
Abstract:
본 발명은 영상내의 전역 움직임(global motion)이 유발되는 이동 카메라 환경에서 인접 영상의 교차 상관관계 정보를 이용하므로서 카메라의 이동에 따른 자가 움직임 에너지(ego-motion energy)를 보상하여 이동 물체만을 검출 및 추적할 수 있는 이동 카메라 환경에서의 움직임 정보에 기반한 이동물체의 검출 장치 및 그 검출 방법에 관한 것이다. 종래의 이동 물체 추적 기법은 자가 움직임 에너지를 보상하는데 있어서, 카메라의 사전 설치 정보를 참조하여, 3차원 실 좌표(real world coordinate)를 2차원 영상 평면의 좌표계로 변화하는 연산을 행한다. 이로 인하여, 이동물체 추적 시스템을 구현하는데 있어서, 카메라의 설치환경에 제약을 받으며 매우 많은 양의 부동소수점 연산이 필요하여 전용 하드웨어의 구현이 복잡하다는 단점이 있다. 따라서, 본 발명은 인접 영상간 나선 탐색에(spiral search) 의하여 교차 상관관계를 계산하므로써, 신속하게 자가 움직임 에너지를 보상하여 이동 물체에서 발생된 움직임 에너지를 효율적으로 검출할 수 있는 이동 카메라 환경에서의 이동 물체의 움직임 검출 장치 및 그 검출 방법을 제시한다.
Abstract:
본 발명은 전자 교환기내에서 패킷 서비스를 수행하는 패킷교환장치에 관한 것으로, 패킷 교환은 대화형 컴퓨터 트래픽에서 폭주하는 데이터를 적절히 취급할수 있는 네트워크를 구축하는 한가지 방법으로서, 패킷은 '소포′를 의미한다. 즉, 데이터 통신을 수행할때 데이터를 일정깊이로 분할하여 각각에 수신축 주소와 제어 정보를 부가하여 하나의 작은 소포 단위로 구성한 것인데, 패킷 교환은 이 패킷 단위로 정보의 전송 및 교환을 수행하는 방식이다. 따라서, 본 발명의 목적은 장치의 연결 및 확정이 용이하고 패킷처리 효율을 향상시킬수 있는 패킷 교환장치를 제공하기 위한 것이다.
Abstract:
PURPOSE: The method is provided to extract, to index, to check the representative color and attached information of an object, and to service the record medium for reading the driver program on a computer. CONSTITUTION: The method comprises the following steps. The object extraction step(301) distinguishes the pixel included in the object with the pixel excluded in the object by using the spatial segmentation. The color histogram calculation step(302) quantizes the pixel within the object. The suppressed color histogram calculation step(303) excludes the bin, composed with lower pixel than the saturation criticality and value criticality of the special value, in the suppressed color histogram calculation. The next step(304) extracts the representative color and the attached information of the representative color, the ratio and the location information, in the bin unit. After determining whether a page of a pause image is the image-object or the video-object in the (305) step, if the image-object, the course ends up to index the extracted representative color and the attached information(306). If the video-object in the result of the (305) step, the extracted representative color is saved in the representative pool(307). The next step determines whether the video-object is the last frame or not(308). If not, the course returns to the start step and if yes, the representative color histogram is calculated(309). After calculating the representative color suppressed histogram(310), the representative color and attached information of the video-object are extracted(311), and then, the final step ends up to index the extracted representative color and attached information of the video-object(312).