영상 이동 영역의 메움 처리 기능을 구비한 입체 영상 제작 시스템 및 그 방법
    41.
    发明公开
    영상 이동 영역의 메움 처리 기능을 구비한 입체 영상 제작 시스템 및 그 방법 审中-实审
    具有孔填充的立体图像的系统及其方法

    公开(公告)号:KR1020140058744A

    公开(公告)日:2014-05-15

    申请号:KR1020120124294

    申请日:2012-11-05

    CPC classification number: H04N13/261

    Abstract: Disclosed are a system and a method for producing a stereoscopic image with an image moving area filling function. The system for producing a stereoscopic image according to an embodiment of the present invention comprises a moving area detection unit for checking a moving area of an object moving in an image, detecting/tracking changes in the moving area by distinguishing the foreground and the background of the moving area, and providing the result information; a filling error processing unit for filling a gap detected by the moving area detection unit, and correcting the filled area; and a stereoscopic image visualization unit for visualizing the stereoscopic image corrected by the filling error processing unit. As a result, a gap due to object movement in a stereoscopic image which may be created by generating a stereoscopic image or changing a sense of depth in a stereoscopic image can be filled, and time for producing a stereoscopic image can be reduced.

    Abstract translation: 公开了一种用于产生具有图像移动区域填充功能的立体图像的系统和方法。 根据本发明的实施例的用于产生立体图像的系统包括移动区域检测单元,用于检查在图像中移动的物体的移动区域,通过区分移动区域的前景和背景来检测/跟踪移动区域的变化 移动区域,并提供结果信息; 填补误差处理单元,用于填充由所述移动区域检测单元检测到的间隙,并校正所述填充区域; 以及立体图像可视化单元,用于可视化由填充误差处理单元校正的立体图像。 结果,可以填充由立体图像中的物体运动引起的间隙,其可以通过产生立体图像或改变立体图像中的深度感来产生,并且可以减少用于产生立体图像的时间。

    2차원 동영상의 3차원 동영상으로의 변환 방법 및 장치
    42.
    发明公开
    2차원 동영상의 3차원 동영상으로의 변환 방법 및 장치 无效
    将2D视频图像转换为3D视频图像的方法和装置

    公开(公告)号:KR1020130114420A

    公开(公告)日:2013-10-18

    申请号:KR1020120036762

    申请日:2012-04-09

    CPC classification number: H04N13/128 H04N13/261 H04N13/271

    Abstract: PURPOSE: A method for converting a two dimensional (2D) video into a three dimensional (3D) video and a device thereof are to covert a 2D video into a 3D video by using coloring information without flickering phenomena. CONSTITUTION: A difference video producing part (605) produces difference videos including information on differences in color values according to pixels of N^th frame using color differences. An accumulated video storage part (603) stores accumulated videos where information on differences in color values according to pixels is stored. Using the difference videos, a division-map video producing part (607) computes only pixels of which the difference in color values is above a predetermined level. The division-map video producing part produces depth map images and divided images of the N^th frame. A 3D video output part (609) converts a video of N^th frame into a 3D one and outputs it using the depth map images. [Reference numerals] (600) Video conversion device; (601) Color value calculation part; (603) Accumulated video storage part; (605) Difference video producing part; (607) Division-map video producing part; (609) 3D video output part

    Abstract translation: 目的:将二维(2D)视频转换为三维(3D)视频及其装置的方法是通过使用不具有闪烁现象的着色信息将2D视频转换成3D视频。 构成:差分视频制作部分(605)根据使用色差的第N帧的像素产生差异视频,其包括关于颜色值差异的信息。 累积的视频存储部分(603)存储根据像素存储关于颜色差异的信息的累积视频。 使用差分视频,分割地图视频产生部分(607)仅计算颜色差异高于预定水平的像素。 分割图视频制作部分产生第N帧的深度图图像和分割图像。 3D视频输出部分(609)将第N帧的视频转换为3D视频,并使用深度图图像将其输出。 (附图标记)(600)视频转换装置; (601)颜色值计算部分; (603)累积视频存储部分; (605)差分视频制作部分; (607)分区地图视频制作部分; (609)3D视频输出部分

    입체 촬영을 위한 영상 처리 장치 및 이를 이용한 방법
    43.
    发明公开
    입체 촬영을 위한 영상 처리 장치 및 이를 이용한 방법 无效
    用于视频记录和使用相同方法的图像处理装置

    公开(公告)号:KR1020130061503A

    公开(公告)日:2013-06-11

    申请号:KR1020110127847

    申请日:2011-12-01

    CPC classification number: H04N2013/0074

    Abstract: PURPOSE: An image processing device for photographing a 3D image and a method thereof are provided to process images by utilizing simple analysis software and a laptop, thereby increasing portability of a guide system. CONSTITUTION: An image receiving unit(110) receives a left image photographed from a left side camera and a right image photographed from a right side camera, respectively. A frame extraction unit(120) extracts left side/right side image frames per predetermined period. A resolution reduction unit(130) reduces image resolution of the left side/right side image frames. An image output unit(140) alternately outputs the left side/right side image frames an image analysis device. [Reference numerals] (110) Image receiving unit; (120) Frame extraction unit; (130) Resolution reduction unit; (140) Image output unit

    Abstract translation: 目的:提供一种用于拍摄3D图像的图像处理装置及其方法,其通过使用简单的分析软件和膝上型计算机来处理图像,从而增加了导向系统的便携性。 构成:图像接收单元(110)分别接收从左侧相机拍摄的左图像和从右侧相机拍摄的右图像。 帧提取单元(120)每预定周期提取左侧/右侧图像帧。 分辨率降低单元(130)降低左侧/右侧图像帧的图像分辨率。 图像输出单元(140)交替地输出图像分析装置的左侧/右侧图像帧。 (附图标记)(110)图像接收单元; (120)帧提取单元; (130)分辨率缩小单元; (140)图像输出单元

    3차원 영상 데이터 생성 방법 및 이를 위한 장치
    44.
    发明公开
    3차원 영상 데이터 생성 방법 및 이를 위한 장치 无效
    转换3D图像数据的方法及其设备

    公开(公告)号:KR1020130003992A

    公开(公告)日:2013-01-09

    申请号:KR1020110065686

    申请日:2011-07-01

    CPC classification number: G06T15/205 G06T7/12 G06T7/55 G06T15/40

    Abstract: PURPOSE: A method for converting 3d image data and an apparatus for the same are provided to reduce manufacturing costs and working hours through automation. CONSTITUTION: A first extracting unit(103) receives two dimensional image data from a receiving unit(101). The first extracting unit separates each layer having discontinuous information. The first extracting unit calculates a probability value which each pixel belongs to a corresponding layer. A second extracting unit(105) extracts a depth map. A processing unit(107) produces an image converted by horizontal variation according to the layer information and depth map. The processing unit performs a painting work on an occlusion region or a hole area. [Reference numerals] (101) Receiving unit; (103) First extracting unit; (105) Second extracting unit; (107) Processing unit; (109) Output unit

    Abstract translation: 目的:提供一种用于转换3D图像数据的方法及其设备,以通过自动化降低制造成本和工作时间。 构成:第一提取单元(103)从接收单元(101)接收二维图像数据。 第一提取单元分离具有不连续信息的每个层。 第一提取单元计算每个像素属于相应层的概率值。 第二提取单元(105)提取深度图。 处理单元(107)根据层信息和深度图产生由水平变化转换的图像。 处理单元对遮挡区域或孔区域进行涂装。 (附图标记)(101)接收单元; (103)第一提取单元; (105)第二提取单元; (107)处理单元; (109)输出单元

    입체 영상의 오차 보정 장치 및 그 방법
    45.
    发明公开
    입체 영상의 오차 보정 장치 및 그 방법 无效
    用于校正三维图像误差的装置和方法

    公开(公告)号:KR1020120071279A

    公开(公告)日:2012-07-02

    申请号:KR1020110024032

    申请日:2011-03-17

    Inventor: 김혜선 반윤지

    CPC classification number: G06T7/13 G06T7/174 G06T2207/20 H04N13/246

    Abstract: PURPOSE: An apparatus and a method for correcting a three-dimensional image are provided to limit main interest area for error analysis of pixel data capacity of an image. CONSTITUTION: An area extracting unit(200) extracts a main interest area from a left image and a right image. A phase difference calculating unit(300) calculates phase difference between the main interest area of the left image and the right image. An error value extracting unit(400) extracts a camera arrangement error value. An error analyzing unit(500) compensate error of a three-dimensional image.

    Abstract translation: 目的:提供用于校正三维图像的装置和方法,以限制图像的像素数据容量的误差分析的主要兴趣区域。 构成:区域提取单元(200)从左图像和右图像提取主要兴趣区域。 相位差计算单元(300)计算左图像的主要兴趣区域和右图像之间的相位差。 误差值提取单元(400)提取相机布置误差值。 误差分析单元(500)补偿三维图像的误差。

    카메라 이동에 따른 렌더링 데이터 처리 장치 및 방법
    46.
    发明授权
    카메라 이동에 따른 렌더링 데이터 처리 장치 및 방법 失效
    根据摄像机运动处理渲染数据的装置和方法

    公开(公告)号:KR101086229B1

    公开(公告)日:2011-11-24

    申请号:KR1020090019178

    申请日:2009-03-06

    Abstract: 본 발명은 카메라 이동에 따른 효과적인 렌더링 데이터 처리 기술에 관한 것으로, 종래의 방법은 카메라가 이동하면 이동한 카메라 뷰에 따른 데이터를 새로 구성하여 카메라의 이동이 있을 때마다 데이터를 새로 생성하므로 리소스의 낭비가 있었다. 이에 본 발명은, 렌더링 시 카메라 뷰에 대해 생성된 딥 렌더 버퍼에 저장된 데이터를 카메라 매트릭스를 이용하여 원래의 값으로 복원하고 이동된 카메라 값을 이용하여 새로운 렌더링 데이터를 구성하는 것을 특징으로 한다. 본 발명에 의하면, 카메라 이동에 대한 딥 렌더 버퍼를 재구성할 수 있으며, 이는 피사계 심도(DOF)와 같이 카메라의 이동에 대한 데이터를 이용하는 경우에 효과적으로 사용될 수 있다.
    렌더링 시스템, 카메라 이동, 딥 렌더 버퍼(Deep render buffer)

    털 렌더링을 위한 앰비언트 오클루전 맵 생성 장치 및 방법
    47.
    发明授权
    털 렌더링을 위한 앰비언트 오클루전 맵 생성 장치 및 방법 失效
    生成环境影响的设备和方法

    公开(公告)号:KR101072889B1

    公开(公告)日:2011-10-17

    申请号:KR1020090019177

    申请日:2009-03-06

    Abstract: 본발명은털 렌더링을위한앰비언트오클루전맵 생성기술에관한것으로, 디자이너가모델링한털 데이터를렌더링할 때렌더링대상의주변물체의배치에따라발생되는빛의감쇠를기하(Geometry) 모델의각 픽셀에대한오클루전값을구하여표현하는종래방법과는달리, 털데이터렌더링을위하여생성된딥 렌더버퍼(Deep render buffer) 깊이값을이용하여 3차원공간을분할하고, 단위 3차원엘리먼트의오클루전값을계산하여오클루전맵을생성하는것을특징으로한다. 본발명에의하면, 적은구현시간으로도대용량털 데이터의효율적인앰비언트오클루전효과를표현할 수있다.

    모발 이미지 렌더링 시스템 및 렌더링 방법
    48.
    发明公开
    모발 이미지 렌더링 시스템 및 렌더링 방법 有权
    发型图像渲染系统及其渲染方法

    公开(公告)号:KR1020110024168A

    公开(公告)日:2011-03-09

    申请号:KR1020090082054

    申请日:2009-09-01

    CPC classification number: G06T15/00

    Abstract: PURPOSE: A hair image rendering system and a rendering method thereof are provided to express hair without a step effect by determining transparency and color value of a pixel using a plurality of sampling points. CONSTITUTION: A hair image rendering system and a rendering method thereof which expresses hair without step phenomena are comprised as follows. A rendering system is for expressing an object of a fiber type such as hair when manufacturing 3D image content. A sampling point setting module(210) sets a sampling point in a hair geometry domain. A transparency determining module(220) determines transparency of a pixel which passes a hair geometry area based on a sampling point. A color value determining module determines a color value of a pixel based on shading value per sampling point.

    Abstract translation: 目的:通过使用多个采样点确定像素的透明度和颜色值,提供头发图像呈现系统及其呈现方法来表达头发而不产生阶梯效应。 构成:如下所述的头发成像系统及其表现无毛刺头发的呈现方法。 渲染系统用于在制造3D图像内容时表达诸如头发之类的纤维类型的对象。 采样点设置模块(210)设置头发几何域中的采样点。 透明度确定模块(220)基于采样点确定通过头发几何区域的像素的透明度。 颜色值确定模块基于每个采样点的阴影值来确定像素的颜色值。

    털 렌더링을 위한 앰비언트 오클루전 맵 생성 장치 및 방법
    49.
    发明公开
    털 렌더링을 위한 앰비언트 오클루전 맵 생성 장치 및 방법 失效
    生成环境影响的设备和方法

    公开(公告)号:KR1020100062781A

    公开(公告)日:2010-06-10

    申请号:KR1020090019177

    申请日:2009-03-06

    Abstract: PURPOSE: An apparatus and a method to generate ambient occlusion map to render fur are provided to express an ambient occlusion effect with a small implementation time. CONSTITUTION: A grid processing unit(104) processes grid data by the depth information of the dip render buffer. The grid data is formed by three-dimensional unit elements. A calculation unit(106) calculates an ambient occlusion value using the processed grid data. A map generating unit(110) generates an ambient occlusion map after the accumulation of the ambient occlusion value.

    Abstract translation: 目的:提供用于产生环境遮挡图以呈现毛皮的装置和方法,以在较小的实施时间内表达环境遮挡效应。 构成:网格处理单元(104)通过倾角渲染缓冲器的深度信息处理网格数据。 网格数据由三维单元元素形成。 计算单元(106)使用经处理的网格数据计算环境遮挡值。 地图生成单元(110)在累积环境遮挡值之后生成环境遮挡图。

    크로스플랫폼 연동 시스템 및 방법
    50.
    发明授权
    크로스플랫폼 연동 시스템 및 방법 有权
    用于交互不同平台的系统和方法

    公开(公告)号:KR100809520B1

    公开(公告)日:2008-03-04

    申请号:KR1020050119705

    申请日:2005-12-08

    Abstract: 본 발명은 크로스플랫폼 연동 시스템 및 방법에 관한 것으로서, 하드웨어와 상기 하드웨어에서 동작하는 운영체제 및 특정 기능의 소프트웨어가 저장되어 있는 플랫폼에 대해, 상기 플랫폼에 속하는 하드웨어 중에서 적어도 하나 이상의 하드웨어의 성능차이가 있는 이기종 하드웨어 플랫폼들이 네트워크로 연결된 상태에서, 클라이언트에서 상기 플랫폼의 성능 및 각 시점의 네트워크 상태에 관한 성능 프로파일을 구성하여 서버로 전달하고, 서버에서 상기 이기종 하드웨어 플랫폼을 갖는 클라이언트 각각에 대해 해당 네트워크 트래픽을 제어함으로써, PC나 콘솔 또는 PDA, 휴대폰과 같은 모바일 단말기 등 플랫폼이 서로 다른 크로스플랫폼 환경에서 다중 사용자가 접속하여 단일 콘텐츠를 즐기는 온라인 게임 서비스를 원활하게 제공받을 수 있다.
    크로스플랫폼, 온라인 게임

Patent Agency Ranking