Abstract:
1. 청구범위에 기재된 발명이 속한 기술분야 장면표현언어를 이용한 디지털 아이템 기술 및 처리 장치 및 그 방법에 관한 것임. 2. 발명이 해결하고자 하는 기술적 과제 MPEG-21 디지털 아이템의 시공간적 관계를 정의하며 상호 작용이 가능한 형태로 멀티미디어 컨텐츠 장면을 표현하는 디지털 아이템 기술 및 처리 장치 및 그 방법을 제공함. 3. 발명의 해결방법의 요지 MPEG-21 표준의 디지털 아이템 선언 언어(Digital Item Declaration Language, DIDL)로 표현되는 디지털 아이템을 처리하는 장치에 있어서, 상기 디지털 아이템에 포함되는 요소 정보에 기초하여 상기 요소를 실행하는 디지털 아이템 방법 엔진(Digital Item Method Engine, DIME) 수단 및 시공간적인 관계를 갖고 상호 작용이 가능한 형태로 상기 디지털 아이템에 포함되는 복수의 미디어 데이터의 장면을 표현하는 장면 표현 수단을 포함하되, 상기 디지털 아이템은 상기 장면의 표현 정보가 포함된 장면표현 정보 및 상기 장면 표현 수단이 상기 장면표현 정보에 기초하여 상기 장면을 표현하기 위해 상기 디지털 아이템 표현 수단이 상기 장 면 표현 수단을 실행시킬 수 있는 호출 정보를 포함하는 디지털 아이템 처리 장치를 제공함. 4. 발명의 중요한 용도 디지털 아이템의 시공간적 관계와 상호 작용이 가능한 장면표현에 이용됨. MPEG-21, 디지털 아이템, 장면표현
Abstract:
본 발명은 영상 디스플레이 장치 및 방법에 관한 것으로, 보다 구체적으로 영상 시스템에서 영상 디스플레이 장치 및 방법에 관한 것이다. 본 발명의 일 실시 예에 따른 시선 추적 방법은 복수의 영상촬영기기로부터 수신된 한 시점 이상의 컬러 영상들과 깊이 영상들을 인코딩하고, 상기 현재 시점의 인코딩된 깊이 영상과 현재 시점 전후의 인코딩된 컬러 영상 및 깊이 영상을 사전 정의된 방법으로 합성하여 참조 영상을 생성하며, 상기 생성된 참조 영상을 이용하여 현재 시점의 컬러 영상을 디코딩하고, 상기 인코딩된 한 시점 이상의 컬러 영상들과 깊이 영상들을 디코딩하고, 상기 디코딩된 한 시점 이상의 컬러 영상들과 깊이 영상들을 시점별로 구분하여 분리하고, 상기 영상 디스플레이 장치는 상기 분리된 컬러 영상을 수신하여 디스플레이하 하고, 상기 분리된 컬러 영상과 깊이 영상을 사전 정의된 방식으로 렌더링하여 디스플레이하고, 상기 분리된 한 시점 이상의 컬러 영상과 깊� � 영상을 사전 정의된 방식으로 렌더링하여 디스플레이 한다.
Abstract:
본 발명은 편집할 깊이 영상 프레임 및 이에 대응되는 컬러 영상의 선택을 입력 받는 단계, 상기 컬러 영상에서 관심 객체의 선택을 입력 받는 단계, 상기 관심 객체의 경계 정보를 추출하는 단계, 및 상기 관심 객체의 상기 경계 정보를 이용하여 상기 깊이 영상 프레임의 깊이 값을 수정하는 단계를 포함하는 깊이 영상 편집 방법을 제안한다. 경계 정보, 깊이 값, 깊이 영상 편집
Abstract:
PURPOSE: An image warping processing method and a device thereof are provided to maintain depth perception in a depth discontinuous point by calculating displacement by segment unit and calculating gradient between segments. CONSTITUTION: A decoder receives a stereoscopic image and calculates disparity by segment(S200,S210). The decoder calculates disparity a discontinuity point and disparity saliency based on the calculated segment-wise disparity(S225,S230). When a warping target image is an objective mobile image, the decoder updates warping parameters(S250). The decoder generates a three-dimensional stereoscopic image(S255). [Reference numerals] (AA) No; (BB) Yes; (D235) Scene turning point detection; (S200) Stereo image input; (S205) Image part; (S210) Calculation modification; (S215) Segment calculation modification; (S220) Segment amalgamation; (S225) Modification detection; (S230) Important modification calculation; (S240) Image type decision; (S245) Object moving area?; (S250) Warping renewal; (S255) Image creation
Abstract:
PURPOSE: A multiview video decoding method and a device thereof are provided to improve the quality of a depth image by applying an anisotropic median filter. CONSTITUTION: A decoder determines whether a current pixel area in a restored depth image is an edge area or not(S900). If the current pixel area is the edge area, the decoder classifies pixels in the current pixel area into groups based on a pixel value applied to an anisotropic median filter(S910). The decoder a filtering target pixel value based on a median value of the classified pixels(S920). [Reference numerals] (AA) Start; (BB) End; (S900) Determine an edge area; (S910) Classify pixels within a current pixel area; (S920) Determine a filtering target pixel value
Abstract:
PURPOSE: A method for encoding and decoding a multi-view video including a color image and a depth image and an encoding and decoding device thereof are provided to supply a free view video by generating a middle view image by transmitting the multi-view video. CONSTITUTION: A decoding device compares the number of views of a color image with the number of views of a depth image(701). The decoding device derives a correspondence relation between the color image and the depth image based on sub information included in a bit stream(702). The decoding device derives view-inter reference structure information based on the sub information in the bit stream(703). The decoding device derives interdependency information with reference to the depth image and the color image(704). The decoding device decodes the bit stream based on reference structure information(705). The decoding device generates a middle view image based on the color image, the depth image, and correspondence relation information(707). [Reference numerals] (701) Compare the number of views; (702) Derive correspondence relation information between color and depth images; (703) Derive intra-view/inter-view reference structure information; (704) Derive interdependency information between the color and depth images; (705) Decode a bit stream; (706) Derive auxiliary information on a reference structure change; (707) Generate a middle view image; (AA) Start; (BB) End
Abstract:
PURPOSE: A stereo image photographing method, a stereo image output method, a stereo image photographing device, and a stereo image output device are provided to improve image quality and a three dimensional effect by matching a photographing point with an image outputting point. CONSTITUTION: A stereo image photographing device generates an N frame by using a first camera(S600). After the N frame is generated, the stereo image photographing device generates the N frame by using a second camera(S610). Image quality and a three dimensional effect are improved by a predetermined time difference between the first and the second cameras. [Reference numerals] (AA) Start; (BB) End; (S600) Generating N-th frame using a first camera; (S610) Generating N-th frame using a second camera after a predetermined period
Abstract:
PURPOSE: A packet transmission device in a moving picture experts group media transport(MMT) system, a method, a packet receiving device and a method are provided to utilize MMT clock reference(MCR) time stamp information of a D layer and presentation time stamp(PTS) information of an E layer, thereby effectively expressing time stamp related information necessary for transmitting MMT based media. CONSTITUTION: A MMT packetizing unit(400) generates a MMT packet based on an inputted presentation unit. The MMT packetizing unit generates the MMT packet including at least one of PTS information and MCR information. The PTS is timing information indicating a presentation time of the presentation unit in a header of an E layer. The MCR is time stamp information including information for network jitter measurement and media synchronization in the header in a D layer. [Reference numerals] (410) M-unit generation unit; (420) MMT packet generation unit; (430) Transmitter buffer
Abstract:
PURPOSE: A transmission device for providing a stereoscopic broadcasting service of a program linkage type and a method and a reception device and a method thereof are provided to enable a reference picture to use a 2DTV system, and to deliver an additional picture based on an advanced television systems committee and a network resource table transmission mechanism in non real time, thereby overcoming a limit of a 3D band width and supplying compatibility with a existing 2D broadcasting system. CONSTITUTION: A real time stream encoder(210) generates a real time stream by encoding a reference picture. A non real time stream encoder(230) generates a non real time stream based on an additional picture. A picture synchronization information generator(220) generates a picture synchronization information stream and service signaling for synchronization of the reference picture and the additional picture. A re-multiplexer(240) generates a stereoscopic broadcasting stream of a program linkage type. [Reference numerals] (201) Standard image; (203) Additional image; (205) Transmitting server; (210) Real time stream encoder; (220) Service signaling and image synchronization information generator; (222) 3D contents synchronization information; (234) NRT signaling information encoder; (236) NRT contents encoder; (240) Re-multiplexer; (AA) Real time stream; (BB) Service signaling and image synchronization information; (CC) NRT signaling information; (DD) Non real time stream; (EE) Non real time stream encoder; (FF) Non real time contents managing unit; (GG) Program linkage type stereoscopic broadcasting stream