Abstract:
본 발명은 영상 디스플레이 장치 및 방법에 관한 것으로, 보다 구체적으로 영상 시스템에서 영상 디스플레이 장치 및 방법에 관한 것이다. 본 발명의 일 실시 예에 따른 시선 추적 방법은 복수의 영상촬영기기로부터 수신된 한 시점 이상의 컬러 영상들과 깊이 영상들을 인코딩하고, 상기 현재 시점의 인코딩된 깊이 영상과 현재 시점 전후의 인코딩된 컬러 영상 및 깊이 영상을 사전 정의된 방법으로 합성하여 참조 영상을 생성하며, 상기 생성된 참조 영상을 이용하여 현재 시점의 컬러 영상을 디코딩하고, 상기 인코딩된 한 시점 이상의 컬러 영상들과 깊이 영상들을 디코딩하고, 상기 디코딩된 한 시점 이상의 컬러 영상들과 깊이 영상들을 시점별로 구분하여 분리하고, 상기 영상 디스플레이 장치는 상기 분리된 컬러 영상을 수신하여 디스플레이하 하고, 상기 분리된 컬러 영상과 깊이 영상을 사전 정의된 방식으로 렌더링하여 디스플레이하고, 상기 분리된 한 시점 이상의 컬러 영상과 깊� � 영상을 사전 정의된 방식으로 렌더링하여 디스플레이 한다.
Abstract:
본 발명은 편집할 깊이 영상 프레임 및 이에 대응되는 컬러 영상의 선택을 입력 받는 단계, 상기 컬러 영상에서 관심 객체의 선택을 입력 받는 단계, 상기 관심 객체의 경계 정보를 추출하는 단계, 및 상기 관심 객체의 상기 경계 정보를 이용하여 상기 깊이 영상 프레임의 깊이 값을 수정하는 단계를 포함하는 깊이 영상 편집 방법을 제안한다. 경계 정보, 깊이 값, 깊이 영상 편집
Abstract:
PURPOSE: An image warping processing method and a device thereof are provided to maintain depth perception in a depth discontinuous point by calculating displacement by segment unit and calculating gradient between segments. CONSTITUTION: A decoder receives a stereoscopic image and calculates disparity by segment(S200,S210). The decoder calculates disparity a discontinuity point and disparity saliency based on the calculated segment-wise disparity(S225,S230). When a warping target image is an objective mobile image, the decoder updates warping parameters(S250). The decoder generates a three-dimensional stereoscopic image(S255). [Reference numerals] (AA) No; (BB) Yes; (D235) Scene turning point detection; (S200) Stereo image input; (S205) Image part; (S210) Calculation modification; (S215) Segment calculation modification; (S220) Segment amalgamation; (S225) Modification detection; (S230) Important modification calculation; (S240) Image type decision; (S245) Object moving area?; (S250) Warping renewal; (S255) Image creation
Abstract:
PURPOSE: A method for encoding and decoding a multi-view video including a color image and a depth image and an encoding and decoding device thereof are provided to supply a free view video by generating a middle view image by transmitting the multi-view video. CONSTITUTION: A decoding device compares the number of views of a color image with the number of views of a depth image(701). The decoding device derives a correspondence relation between the color image and the depth image based on sub information included in a bit stream(702). The decoding device derives view-inter reference structure information based on the sub information in the bit stream(703). The decoding device derives interdependency information with reference to the depth image and the color image(704). The decoding device decodes the bit stream based on reference structure information(705). The decoding device generates a middle view image based on the color image, the depth image, and correspondence relation information(707). [Reference numerals] (701) Compare the number of views; (702) Derive correspondence relation information between color and depth images; (703) Derive intra-view/inter-view reference structure information; (704) Derive interdependency information between the color and depth images; (705) Decode a bit stream; (706) Derive auxiliary information on a reference structure change; (707) Generate a middle view image; (AA) Start; (BB) End
Abstract:
PURPOSE: An apparatus for encoding and decoding a multi view point image and a method thereof are provided to encode depth information through prediction information which is created in multi view point video image decoding process. CONSTITUTION: A video encoding unit(501) encodes a multi view point image. A depth information video encoding unit(503) encodes the depth information image. An MV(Motion Vector) generator(505) creates a motion vector about the current frame of the first depth information image. An identity decision unit(507) determines the identity of the motion vector corresponding to the motion vector of the current frame and inter prediction. A flag bit encoding unit(509) encodes the flag bit which indicates the result of the identity determination.
Abstract:
기준시점 영상에 대한 초기 깊이정보 및 기준시점 영상의 이전 프레임을 이용하여 초기 깊이정보보다 보정된 최종 깊이정보를 생성하는 깊이정보 추출 장치 및 추출 방법에 관한 기술이 개시된다. 이러한 기술에 따르면, 기준시점 영상 및 대상시점 영상을 입력받아 저장하는 영상 입력부; 상기 기준시점 영상에 대한 초기 깊이정보를 입력받아 저장하는 깊이정보 입력부; 상기 기준시점 영상의 컬러 유사도 및 상기 초기 깊이정보를 이용하여, 상기 기준시점 영상을 복수의 영역으로 분할하는 영상 분할부; 및 상기 분할된 복수의 영역 각각을 상기 대상시점 영상에 대응시키고, 대응되는 영역 사이의 컬러 유사도를 이용하여, 상기 초기 깊이정보가 보정된 최종 깊이정보를 생성하는 제1깊이정보 생성부를 포함하는 깊이정보 추출 장치가 제공된다. 깊이, 변이, 스테레오
Abstract:
PURPOSE: An apparatus and a method for generating depth information are provided to obtain the depth information on obtained entire images, thereby acquiring more accurate depth information from the obtained images. CONSTITUTION: A projector(103) projects a predetermined pattern onto a photographed object. A left camera obtains the left image of a structured light image to which patterns are projected. A right camera(102) obtains the right image of the structured light image to which the pattern is projected. A depth information generating device(105) determines corresponding point information from the obtained left and right images to generate the depth information of the images.
Abstract:
PURPOSE: A quality improving apparatus of a depth image for improving the quality of the depth image is provided to improve the quality of the acquired depth image by accurately setting the lightness difference within the depth image. CONSTITUTION: A first processing unit(106) sets brightness difference value corresponding to the disparity value of a depth image frame through a previous depth image frame and an inputted current depth image frame. A second processing unit(112) sets the brightness difference value corresponding to a disparity value section of the depth image frame through an inputted multi-view image. A third processing unit(116) performs a graph-cut algorithm through the brightness difference value.
Abstract:
객체 또는 배경 분리를 이용한 다시점 정합 방법 및 장치가 개시된다. 객체 또는 배경 분리를 이용한 다시점 정합 방법은 다시점 카메라로부터 수신한 다시점 영상 및 깊이 카메라로부터 수신한 기준 시점 영상의 깊이 정보를 저장하는 단계 -상기 기준 시점은 상기 다시점 중 선택된 것임 - 상기 기준 시점 영상 및 상기 깊이 정보를 이용하여 상기 기준 시점 영상의 객체 영역 또는 배경 영역 분리를 수행하는 단계, 상기 객체 또는 배경 영역의 분리 수행 결과에 따라 상기 기준 시점 영상의 최종 깊이 정보를 결정하는 단계, 상기 기준 시점 영상의 최종 깊이 정보를 이용하여 상기 다시점 중 기준 시점 이외의 시점 영상의 최종 깊이 정보를 결정하는 단계 및 상기 다시점 영상 각각의 최종 깊이 정보를 디지털 영상으로 기록하는 단계를 포함한다. 스테레오 정합, 다시점 정합, 객체 또는 배경 분리, 깊이 정보
Abstract:
PURPOSE: A method for generating a virtual view image and an apparatus thereof are provided to obtain a more high definition virtual view image by compensating a non-processed region of a virtual view image in a current frame through a pixel value of a virtual view image of a previous frame. CONSTITUTION: The base view images for plural base view cameras are synthesized, and a virtual view image for the virtual view camera is created(401). The depth information images for the plural base view camera are synthesized and created(403). A first non-processed region of the non-processed region in the depth information image is compensated. Based on the depth information image, a second non-processed region which is the non-processed region of the virtual view image in the current frame is compensated(405).