-
公开(公告)号:KR101757352B1
公开(公告)日:2017-07-27
申请号:KR1020120146166
申请日:2012-12-14
Applicant: 한국전자통신연구원
IPC: H04N13/02
Abstract: 본발명은입체영상생성방법으로, 로토스코핑(Rotoscoping) 기법에의해단안영상에포함된하나이상의객체를분리하는단계와, 분리된하나이상의객체에깊이값을부여하여객체를배치하는단계와, 각객체가배치된형태의가상의스테레오카메라를생성하거나깊이정보를이용한양안영상생성하는단계를포함한다.
Abstract translation: 本发明包括以下步骤:将三维图像生成方法,的rotoscoping(的rotoscoping)和由下式给出的相位的技术中,和所述对象的深度值或对象分离以分离一个或多个对象包括在所述单眼图像对象,每个 并且生成其中放置对象的类型的立体照相机或使用深度信息生成双眼图像。
-
公开(公告)号:KR1020160107588A
公开(公告)日:2016-09-19
申请号:KR1020150030521
申请日:2015-03-04
Applicant: 한국전자통신연구원
Inventor: 김혜선
CPC classification number: H04N13/261 , H04N2013/0092 , G06T17/00 , H04N21/816
Abstract: 2D 동영상으로부터새로운 3D 입체동영상제작을위한장치및 방법이개시된다. 본발명의일 면에따른컴퓨터로구현가능한, 2D 동영상으로부터새로운 3D 입체동영상제작방법은입력된 2D 동영상을컷 단위의작업클립으로분할하는단계; 상기작업클립에서객체영역추출정보를생성하는단계; 및상기객체영역추출정보에기초하여작업클립별로입체변환작업지시서를생성하는단계를포함한다.
Abstract translation: 公开了一种用于从二维视频制造新的三维视频的装置和方法。 根据本发明的一个方面,可以在计算机上实现的用于从二维视频制造新的三维视频的方法包括以下步骤:将输入的二维视频划分为 切割单位; 在工作夹中生成对象区域提取信息; 以及通过基于对象区域提取信息的工作夹来生成三维工作方向。
-
公开(公告)号:KR1020150094345A
公开(公告)日:2015-08-19
申请号:KR1020140015521
申请日:2014-02-11
Applicant: 한국전자통신연구원
IPC: H04N13/02
CPC classification number: H04N13/261 , H04N13/257 , H04N13/264 , H04N13/271
Abstract: 2차원 동영상을 3차원 동영상으로 변환하는 장치는 매 프레임마다 움직임 정보를 이용하여 이전 프레임의 복수의 영역 영상을 갱신하고, 상기 이전 프레임의 각 영역 영상의 깊이 정보를 다음 프레임의 해당 영역 영상에 부여하여 상기 매 프레임의 깊이맵 영상을 생성한 후 상기 매 프레임의 깊이맵 영상을 이용하여 상기 매 프레임의 입체 영상을 생성한다.
Abstract translation: 用于将二维视频转换为三维视频的装置通过使用每帧的运动信息来更新先前帧的多个区域图像,并且通过使用每帧后的每个帧的深度图图像来生成每帧的三维视频 通过将前一帧的每个区域图像的深度信息分配给下一帧的相应区域图像来生成每个帧的深度图图像。
-
公开(公告)号:KR1020140058744A
公开(公告)日:2014-05-15
申请号:KR1020120124294
申请日:2012-11-05
Applicant: 한국전자통신연구원
CPC classification number: H04N13/261
Abstract: Disclosed are a system and a method for producing a stereoscopic image with an image moving area filling function. The system for producing a stereoscopic image according to an embodiment of the present invention comprises a moving area detection unit for checking a moving area of an object moving in an image, detecting/tracking changes in the moving area by distinguishing the foreground and the background of the moving area, and providing the result information; a filling error processing unit for filling a gap detected by the moving area detection unit, and correcting the filled area; and a stereoscopic image visualization unit for visualizing the stereoscopic image corrected by the filling error processing unit. As a result, a gap due to object movement in a stereoscopic image which may be created by generating a stereoscopic image or changing a sense of depth in a stereoscopic image can be filled, and time for producing a stereoscopic image can be reduced.
Abstract translation: 公开了一种用于产生具有图像移动区域填充功能的立体图像的系统和方法。 根据本发明的实施例的用于产生立体图像的系统包括移动区域检测单元,用于检查在图像中移动的物体的移动区域,通过区分移动区域的前景和背景来检测/跟踪移动区域的变化 移动区域,并提供结果信息; 填补误差处理单元,用于填充由所述移动区域检测单元检测到的间隙,并校正所述填充区域; 以及立体图像可视化单元,用于可视化由填充误差处理单元校正的立体图像。 结果,可以填充由立体图像中的物体运动引起的间隙,其可以通过产生立体图像或改变立体图像中的深度感来产生,并且可以减少用于产生立体图像的时间。
-
公开(公告)号:KR1020130114420A
公开(公告)日:2013-10-18
申请号:KR1020120036762
申请日:2012-04-09
Applicant: 한국전자통신연구원
IPC: H04N13/00
CPC classification number: H04N13/128 , H04N13/261 , H04N13/271
Abstract: PURPOSE: A method for converting a two dimensional (2D) video into a three dimensional (3D) video and a device thereof are to covert a 2D video into a 3D video by using coloring information without flickering phenomena. CONSTITUTION: A difference video producing part (605) produces difference videos including information on differences in color values according to pixels of N^th frame using color differences. An accumulated video storage part (603) stores accumulated videos where information on differences in color values according to pixels is stored. Using the difference videos, a division-map video producing part (607) computes only pixels of which the difference in color values is above a predetermined level. The division-map video producing part produces depth map images and divided images of the N^th frame. A 3D video output part (609) converts a video of N^th frame into a 3D one and outputs it using the depth map images. [Reference numerals] (600) Video conversion device; (601) Color value calculation part; (603) Accumulated video storage part; (605) Difference video producing part; (607) Division-map video producing part; (609) 3D video output part
Abstract translation: 目的:将二维(2D)视频转换为三维(3D)视频及其装置的方法是通过使用不具有闪烁现象的着色信息将2D视频转换成3D视频。 构成:差分视频制作部分(605)根据使用色差的第N帧的像素产生差异视频,其包括关于颜色值差异的信息。 累积的视频存储部分(603)存储根据像素存储关于颜色差异的信息的累积视频。 使用差分视频,分割地图视频产生部分(607)仅计算颜色差异高于预定水平的像素。 分割图视频制作部分产生第N帧的深度图图像和分割图像。 3D视频输出部分(609)将第N帧的视频转换为3D视频,并使用深度图图像将其输出。 (附图标记)(600)视频转换装置; (601)颜色值计算部分; (603)累积视频存储部分; (605)差分视频制作部分; (607)分区地图视频制作部分; (609)3D视频输出部分
-
公开(公告)号:KR1020130061503A
公开(公告)日:2013-06-11
申请号:KR1020110127847
申请日:2011-12-01
Applicant: 한국전자통신연구원
IPC: H04N13/02
CPC classification number: H04N2013/0074
Abstract: PURPOSE: An image processing device for photographing a 3D image and a method thereof are provided to process images by utilizing simple analysis software and a laptop, thereby increasing portability of a guide system. CONSTITUTION: An image receiving unit(110) receives a left image photographed from a left side camera and a right image photographed from a right side camera, respectively. A frame extraction unit(120) extracts left side/right side image frames per predetermined period. A resolution reduction unit(130) reduces image resolution of the left side/right side image frames. An image output unit(140) alternately outputs the left side/right side image frames an image analysis device. [Reference numerals] (110) Image receiving unit; (120) Frame extraction unit; (130) Resolution reduction unit; (140) Image output unit
Abstract translation: 目的:提供一种用于拍摄3D图像的图像处理装置及其方法,其通过使用简单的分析软件和膝上型计算机来处理图像,从而增加了导向系统的便携性。 构成:图像接收单元(110)分别接收从左侧相机拍摄的左图像和从右侧相机拍摄的右图像。 帧提取单元(120)每预定周期提取左侧/右侧图像帧。 分辨率降低单元(130)降低左侧/右侧图像帧的图像分辨率。 图像输出单元(140)交替地输出图像分析装置的左侧/右侧图像帧。 (附图标记)(110)图像接收单元; (120)帧提取单元; (130)分辨率缩小单元; (140)图像输出单元
-
公开(公告)号:KR1020130003992A
公开(公告)日:2013-01-09
申请号:KR1020110065686
申请日:2011-07-01
Applicant: 한국전자통신연구원
IPC: G06T15/20
CPC classification number: G06T15/205 , G06T7/12 , G06T7/55 , G06T15/40
Abstract: PURPOSE: A method for converting 3d image data and an apparatus for the same are provided to reduce manufacturing costs and working hours through automation. CONSTITUTION: A first extracting unit(103) receives two dimensional image data from a receiving unit(101). The first extracting unit separates each layer having discontinuous information. The first extracting unit calculates a probability value which each pixel belongs to a corresponding layer. A second extracting unit(105) extracts a depth map. A processing unit(107) produces an image converted by horizontal variation according to the layer information and depth map. The processing unit performs a painting work on an occlusion region or a hole area. [Reference numerals] (101) Receiving unit; (103) First extracting unit; (105) Second extracting unit; (107) Processing unit; (109) Output unit
Abstract translation: 目的:提供一种用于转换3D图像数据的方法及其设备,以通过自动化降低制造成本和工作时间。 构成:第一提取单元(103)从接收单元(101)接收二维图像数据。 第一提取单元分离具有不连续信息的每个层。 第一提取单元计算每个像素属于相应层的概率值。 第二提取单元(105)提取深度图。 处理单元(107)根据层信息和深度图产生由水平变化转换的图像。 处理单元对遮挡区域或孔区域进行涂装。 (附图标记)(101)接收单元; (103)第一提取单元; (105)第二提取单元; (107)处理单元; (109)输出单元
-
公开(公告)号:KR1020120071279A
公开(公告)日:2012-07-02
申请号:KR1020110024032
申请日:2011-03-17
Applicant: 한국전자통신연구원
CPC classification number: G06T7/13 , G06T7/174 , G06T2207/20 , H04N13/246
Abstract: PURPOSE: An apparatus and a method for correcting a three-dimensional image are provided to limit main interest area for error analysis of pixel data capacity of an image. CONSTITUTION: An area extracting unit(200) extracts a main interest area from a left image and a right image. A phase difference calculating unit(300) calculates phase difference between the main interest area of the left image and the right image. An error value extracting unit(400) extracts a camera arrangement error value. An error analyzing unit(500) compensate error of a three-dimensional image.
Abstract translation: 目的:提供用于校正三维图像的装置和方法,以限制图像的像素数据容量的误差分析的主要兴趣区域。 构成:区域提取单元(200)从左图像和右图像提取主要兴趣区域。 相位差计算单元(300)计算左图像的主要兴趣区域和右图像之间的相位差。 误差值提取单元(400)提取相机布置误差值。 误差分析单元(500)补偿三维图像的误差。
-
公开(公告)号:KR101086229B1
公开(公告)日:2011-11-24
申请号:KR1020090019178
申请日:2009-03-06
Applicant: 한국전자통신연구원
IPC: G06T15/00
Abstract: 본 발명은 카메라 이동에 따른 효과적인 렌더링 데이터 처리 기술에 관한 것으로, 종래의 방법은 카메라가 이동하면 이동한 카메라 뷰에 따른 데이터를 새로 구성하여 카메라의 이동이 있을 때마다 데이터를 새로 생성하므로 리소스의 낭비가 있었다. 이에 본 발명은, 렌더링 시 카메라 뷰에 대해 생성된 딥 렌더 버퍼에 저장된 데이터를 카메라 매트릭스를 이용하여 원래의 값으로 복원하고 이동된 카메라 값을 이용하여 새로운 렌더링 데이터를 구성하는 것을 특징으로 한다. 본 발명에 의하면, 카메라 이동에 대한 딥 렌더 버퍼를 재구성할 수 있으며, 이는 피사계 심도(DOF)와 같이 카메라의 이동에 대한 데이터를 이용하는 경우에 효과적으로 사용될 수 있다.
렌더링 시스템, 카메라 이동, 딥 렌더 버퍼(Deep render buffer)-
公开(公告)号:KR101072889B1
公开(公告)日:2011-10-17
申请号:KR1020090019177
申请日:2009-03-06
Applicant: 한국전자통신연구원
Abstract: 본발명은털 렌더링을위한앰비언트오클루전맵 생성기술에관한것으로, 디자이너가모델링한털 데이터를렌더링할 때렌더링대상의주변물체의배치에따라발생되는빛의감쇠를기하(Geometry) 모델의각 픽셀에대한오클루전값을구하여표현하는종래방법과는달리, 털데이터렌더링을위하여생성된딥 렌더버퍼(Deep render buffer) 깊이값을이용하여 3차원공간을분할하고, 단위 3차원엘리먼트의오클루전값을계산하여오클루전맵을생성하는것을특징으로한다. 본발명에의하면, 적은구현시간으로도대용량털 데이터의효율적인앰비언트오클루전효과를표현할 수있다.
-
-
-
-
-
-
-
-
-