영상 이동 영역의 메움 처리 기능을 구비한 입체 영상 제작 시스템 및 그 방법
    11.
    发明公开
    영상 이동 영역의 메움 처리 기능을 구비한 입체 영상 제작 시스템 및 그 방법 审中-实审
    具有孔填充的立体图像的系统及其方法

    公开(公告)号:KR1020140058744A

    公开(公告)日:2014-05-15

    申请号:KR1020120124294

    申请日:2012-11-05

    CPC classification number: H04N13/261

    Abstract: Disclosed are a system and a method for producing a stereoscopic image with an image moving area filling function. The system for producing a stereoscopic image according to an embodiment of the present invention comprises a moving area detection unit for checking a moving area of an object moving in an image, detecting/tracking changes in the moving area by distinguishing the foreground and the background of the moving area, and providing the result information; a filling error processing unit for filling a gap detected by the moving area detection unit, and correcting the filled area; and a stereoscopic image visualization unit for visualizing the stereoscopic image corrected by the filling error processing unit. As a result, a gap due to object movement in a stereoscopic image which may be created by generating a stereoscopic image or changing a sense of depth in a stereoscopic image can be filled, and time for producing a stereoscopic image can be reduced.

    Abstract translation: 公开了一种用于产生具有图像移动区域填充功能的立体图像的系统和方法。 根据本发明的实施例的用于产生立体图像的系统包括移动区域检测单元,用于检查在图像中移动的物体的移动区域,通过区分移动区域的前景和背景来检测/跟踪移动区域的变化 移动区域,并提供结果信息; 填补误差处理单元,用于填充由所述移动区域检测单元检测到的间隙,并校正所述填充区域; 以及立体图像可视化单元,用于可视化由填充误差处理单元校正的立体图像。 结果,可以填充由立体图像中的物体运动引起的间隙,其可以通过产生立体图像或改变立体图像中的深度感来产生,并且可以减少用于产生立体图像的时间。

    2차원 동영상의 3차원 동영상으로의 변환 방법 및 장치
    12.
    发明公开
    2차원 동영상의 3차원 동영상으로의 변환 방법 및 장치 无效
    将2D视频图像转换为3D视频图像的方法和装置

    公开(公告)号:KR1020130114420A

    公开(公告)日:2013-10-18

    申请号:KR1020120036762

    申请日:2012-04-09

    CPC classification number: H04N13/128 H04N13/261 H04N13/271

    Abstract: PURPOSE: A method for converting a two dimensional (2D) video into a three dimensional (3D) video and a device thereof are to covert a 2D video into a 3D video by using coloring information without flickering phenomena. CONSTITUTION: A difference video producing part (605) produces difference videos including information on differences in color values according to pixels of N^th frame using color differences. An accumulated video storage part (603) stores accumulated videos where information on differences in color values according to pixels is stored. Using the difference videos, a division-map video producing part (607) computes only pixels of which the difference in color values is above a predetermined level. The division-map video producing part produces depth map images and divided images of the N^th frame. A 3D video output part (609) converts a video of N^th frame into a 3D one and outputs it using the depth map images. [Reference numerals] (600) Video conversion device; (601) Color value calculation part; (603) Accumulated video storage part; (605) Difference video producing part; (607) Division-map video producing part; (609) 3D video output part

    Abstract translation: 目的:将二维(2D)视频转换为三维(3D)视频及其装置的方法是通过使用不具有闪烁现象的着色信息将2D视频转换成3D视频。 构成:差分视频制作部分(605)根据使用色差的第N帧的像素产生差异视频,其包括关于颜色值差异的信息。 累积的视频存储部分(603)存储根据像素存储关于颜色差异的信息的累积视频。 使用差分视频,分割地图视频产生部分(607)仅计算颜色差异高于预定水平的像素。 分割图视频制作部分产生第N帧的深度图图像和分割图像。 3D视频输出部分(609)将第N帧的视频转换为3D视频,并使用深度图图像将其输出。 (附图标记)(600)视频转换装置; (601)颜色值计算部分; (603)累积视频存储部分; (605)差分视频制作部分; (607)分区地图视频制作部分; (609)3D视频输出部分

    3차원 영상 데이터 생성 방법 및 이를 위한 장치
    13.
    发明公开
    3차원 영상 데이터 생성 방법 및 이를 위한 장치 无效
    转换3D图像数据的方法及其设备

    公开(公告)号:KR1020130003992A

    公开(公告)日:2013-01-09

    申请号:KR1020110065686

    申请日:2011-07-01

    CPC classification number: G06T15/205 G06T7/12 G06T7/55 G06T15/40

    Abstract: PURPOSE: A method for converting 3d image data and an apparatus for the same are provided to reduce manufacturing costs and working hours through automation. CONSTITUTION: A first extracting unit(103) receives two dimensional image data from a receiving unit(101). The first extracting unit separates each layer having discontinuous information. The first extracting unit calculates a probability value which each pixel belongs to a corresponding layer. A second extracting unit(105) extracts a depth map. A processing unit(107) produces an image converted by horizontal variation according to the layer information and depth map. The processing unit performs a painting work on an occlusion region or a hole area. [Reference numerals] (101) Receiving unit; (103) First extracting unit; (105) Second extracting unit; (107) Processing unit; (109) Output unit

    Abstract translation: 目的:提供一种用于转换3D图像数据的方法及其设备,以通过自动化降低制造成本和工作时间。 构成:第一提取单元(103)从接收单元(101)接收二维图像数据。 第一提取单元分离具有不连续信息的每个层。 第一提取单元计算每个像素属于相应层的概率值。 第二提取单元(105)提取深度图。 处理单元(107)根据层信息和深度图产生由水平变化转换的图像。 处理单元对遮挡区域或孔区域进行涂装。 (附图标记)(101)接收单元; (103)第一提取单元; (105)第二提取单元; (107)处理单元; (109)输出单元

    카메라 트래킹 시스템, 트래킹 방법 및 이를 이용한 실사영상 합성 시스템
    14.
    发明公开
    카메라 트래킹 시스템, 트래킹 방법 및 이를 이용한 실사영상 합성 시스템 有权
    摄像机跟踪系统和方法及使用该摄像机的实时视频组合系统

    公开(公告)号:KR1020110043967A

    公开(公告)日:2011-04-28

    申请号:KR1020090100738

    申请日:2009-10-22

    CPC classification number: H04N7/181

    Abstract: PURPOSE: A live video compositing system using a camera tracking method is provided to continue the disconnected trace of a dynamically moving object using a sub image. CONSTITUTION: A main camera(110) takes a photograph of a main picture used in a synthesis. A sub camera(120) attached to the main camera takes a photograph of a sub picture. A tracking unit(150) estimates the movement of the sub camera by tracing the feature point trajectory of the sub picture. A motion converting unit(160) converts the movement of the sub camera into the movement of a main camera considering the location of the sub camera and the main camera. A structuring unit(170) restores the feature point trajectory to a 3D space by tracing the feature point trajectory of the main picture. An optimization unit(180) optimizes the movement of the converted main camera by regulating variables of the sub camera movement, the main camera movement, and the 3D coordinates of the feature point trajectory of the sub image.

    Abstract translation: 目的:提供使用相机跟踪方法的实时视频合成系统,以使用子图像继续动态移动的对象的断开跟踪。 构成:主摄像机(110)拍摄合成中使用的主画面的照片。 安装在主摄像机上的副照相机(120)拍摄副图像的照片。 跟踪单元(150)通过跟踪子图像的特征点轨迹来估计子相机的移动。 考虑到副摄像机和主摄像机的位置,运动转换单元(160)将副摄像机的运动转换为主摄像机的运动。 结构单元(170)通过跟踪主图像的特征点轨迹将特征点轨迹恢复到3D空间。 优化单元(180)通过调整副图像的子摄像机运动,主摄像机运动和特征点轨迹的3D坐标的变量来优化转换的主摄像机的运动。

    실시간 카메라 트래킹을 이용한 실사 영상 합성 시스템 및 그 방법
    15.
    发明公开
    실시간 카메라 트래킹을 이용한 실사 영상 합성 시스템 및 그 방법 有权
    实时相机跟踪和实时视频组合系统及其方法

    公开(公告)号:KR1020090064967A

    公开(公告)日:2009-06-22

    申请号:KR1020070132360

    申请日:2007-12-17

    Abstract: A real-time camera tracking and realistic image synthesis system and a method thereof are provided to synthesize a road guide and peripheral information with a realistic image in real time in a car navigator, and to output the synthesized image, thereby ensuring real-time effect and accuracy. A feature point prediction and selection unit(19) selects only feature points rom which a 3D position is restored, among feature points for an image. A camera movement prediction unit(13) predicts camera movement information by using the selected feature points. A matching unit(21) compares the current location of a camera with a background geometry model of a peripheral space, and matches the compared information. A synthesizer(25) synthesizes the predicted camera movement information with a realistic image of the peripheral information, and outputs the synthesized image.

    Abstract translation: 提供实时相机跟踪和逼真的图像合成系统及其方法,以在汽车导航器中实时地将道路指南和外部信息与实际图像合成,并输出合成图像,从而确保实时效果 和准确性。 特征点预测和选择单元(19)在图像的特征点中仅选择3D位置被恢复的特征点ROM。 相机移动预测单元(13)通过使用所选择的特征点来预测相机移动信息。 匹配单元(21)将相机的当前位置与外围空间的背景几何模型进行比较,并且匹配所比较的信息。 合成器(25)将预测的摄像机运动信息与外围信息的真实图像合成,并输出合成图像。

    모션인식과 음성인식을 이용한 게임 장치 및 그 방법
    16.
    发明授权
    모션인식과 음성인식을 이용한 게임 장치 및 그 방법 失效
    游戏使用运动捕捉和语音识别的装置和方法

    公开(公告)号:KR100733964B1

    公开(公告)日:2007-06-29

    申请号:KR1020050113655

    申请日:2005-11-25

    Abstract: 1. 청구범위에 기재된 발명이 속한 기술분야
    본 발명은, 모션인식과 음성인식을 이용한 게임 장치 및 그 방법에 관한 것임.
    2. 발명이 해결하려고 하는 기술적 과제
    본 발명은, 서로 다른 카메라 정보를 가지는 양안식 영상에서 객체를 추출한 후 양안 시차를 이용하여 깊이 정보를 산출하고, 상기 산출한 깊이 정보를 이용하여 3차원 공간에서 상기 객체의 위치를 구하며, 후진동작(Inverse Kinematics) 알고리즘을 통해 전체 모션 데이터를 생성하여 인식한 모션 인식결과와 음성(문장)에서 추출한 특징점 및 상기 모션 인식수단으로부터 전달받은 모션 인식결과를 이용하여 문장의 어구간을 구분한 후 인식한 음성 인식결과를 조합하여 명령을 인식한 후, 캐릭터의 동작 및 그에 상응하는 음향을 제어하기 위한, 모션인식과 음성인식을 이용한 게임 장치 및 그 방법을 제공하는데 그 목적이 있음.
    3. 발명의 해결방법의 요지
    본 발명은, 모션인식과 음성인식을 이용한 게임 장치에 있어서, 사용자별 명령 데이터를 저장하기 위한 저장수단; 서로 다른 카메라 정보를 가지는 양안식 영상에서 객체를 추출한 후 양안 시차를 이용하여 깊이 정보를 산출하고, 상기 산출한 깊이 정보를 이용하여 3차원 공간에서 상기 객체의 위치를 구하며, 후진동작(Inverse Kinematics) 알고리즘을 통해 전체 모션 데이터를 생성하여 모션을 인식하기 위한 모션 인식수단; 적어도 하나의 어구로 이루어진 음성에서 추출한 특징점 및 상기 모션 인식수단으로부터 전달받은 모션 인식결과를 이용하여 음성의 어구간을 구분한 후 어구를 인식하기 위한 고립단어 인식수단; 상기 고립단어 인식수단에서의 인식결과와 상기 모션 인식수단에서의 인식결과를 조합하여 명령을 인식하기 위한 명령 인식수단; 및 상기 명령 인식수단에서의 인식결과(명령 데이터)에 따라 캐릭터의 동작 및 그에 상응하는 음향을 제어하고, 상기 인식결과를 상기 저장수단에 저장하기 위한 중앙처리수단을 포함함.
    4. 발명의 중요한 용도
    본 발명은 게임 장치 등에 이용됨.
    모션인식, 음성인식, 조합, 가상공간, 후진동작 알고리즘, 고립단어 인식, 게임 장치

    모션 블러가 심한 영상의 카메라 자동보정 장치 및 그방법과, 그를 이용한 증강현실 시스템
    17.
    发明公开
    모션 블러가 심한 영상의 카메라 자동보정 장치 및 그방법과, 그를 이용한 증강현실 시스템 有权
    摄像机运动自动校准的装置和方法,使用它的已实现的现实系统

    公开(公告)号:KR1020070061157A

    公开(公告)日:2007-06-13

    申请号:KR1020060052758

    申请日:2006-06-12

    CPC classification number: H04N5/23264 G06T5/002 G06T19/006 H04N5/23216

    Abstract: A camera auto-calibration apparatus and method for an image with severe motion blur, and an augmented reality system using the apparatus are provided to obtain correct external and internal parameters of a camera from an image with a severe motion blur in order to use the external and internal parameters in augmented reality. A camera auto-calibration system(10) includes a Gaussian smoothing unit(12), a camera information acquisition unit(13), and a restoration filtering unit(14). The Gaussian smoothing unit Gaussian-smooths an image with a severe motion blur, inputted through an image input unit, to remove a phenomenon that intensity is spread according to a camera motion. The camera information acquisition unit acquires an external parameter and an internal parameter of the camera motion from the Gaussian-smoothed image. The restoration filtering unit filters the image in which motion blur occurs by using a restoration filter on the basis of the external parameter and the internal parameter. The Gaussian smoothing operation and the internal/external variable acquisition operation are repeated according to a degree of motion blur of the restored image.

    Abstract translation: 提供了一种用于具有严重运动模糊的图像的相机自动校准装置和方法,以及使用该装置的增强现实系统,以从具有严重运动模糊的图像获得相机的正确的外部和内部参数,以便使用外部 和增强现实中的内部参数。 相机自动校准系统(10)包括高斯平滑单元(12),相机信息获取单元(13)和恢复滤波单元(14)。 高斯平滑单元高斯平滑通过图像输入单元输入的严重运动模糊的图像,以消除强度根据摄像机运动而扩散的现象。 相机信息获取单元从高斯平滑图像获取相机运动的外部参数和内部参数。 恢复滤波单元通过使用基于外部参数和内部参数的恢复滤波器来过滤发生运动模糊的图像。 根据恢复图像的运动模糊度,重复高斯平滑处理和内部/外部变量获取操作。

    3차원 컬러 메쉬 복원 방법 및 장치

    公开(公告)号:KR102199458B1

    公开(公告)日:2021-01-06

    申请号:KR1020170158234

    申请日:2017-11-24

    Abstract: 3차원컬러메쉬복원방법및 장치가개시된다. 본개시의일 실시예에따른 3차원컬러메쉬복원방법은, 객체의메쉬정보, 상기객체를서로다른위치에서촬영한복수의다시점이미지, 및상기다시점이미지에대응되는카메라파라미터정보를입력받는과정과, 상기입력된정보에기초하여, 상기객체에대응되는텍스처맵을구성하되, 동일한다시점이미지의컬러값을참조하는텍스처패치를설정하는과정과, 상기텍스처패치단위에포함되는버텍스의컬러값을보정하는과정과, 상기텍스처맵에상기보정된버텍스의컬러값을반영하여상기객체에대한렌더링을수행하는과정을포함할수 있다.

    초점 변화를 이용한 3D 깊이맵 생성 방법 및 장치
    20.
    发明公开
    초점 변화를 이용한 3D 깊이맵 생성 방법 및 장치 审中-实审
    使用焦点改变来创建3D梦想地图的方法和设备

    公开(公告)号:KR1020170102748A

    公开(公告)日:2017-09-12

    申请号:KR1020160025266

    申请日:2016-03-02

    Abstract: 본발명은초점변화를이용한 3D 깊이맵생성장치로, 하나의영상에대해그 초점을변화시켜생성한다수의초점변화영상들각각에대해단위블록영상별로초점변화에따른소정영상속성값의픽셀간 변화량파워패턴을생성하는파워패턴생성부와, 상기파워패턴을이용하여상기영상에대한깊이맵을생성하는깊이맵생성부를포함한다.

    Abstract translation: 本发明是使用聚焦变化的3D深度图生成装置,一个产生通过改变焦点与特定图像属性值焦点变化图像的对应于所述图像中的对变化量之间的每个像素由每个单元块中的焦点偏移的数量的图像 用于生成功率图案的功率图案生成器,以及用于使用功率图案生成图像的深度图的深度图生成器。

Patent Agency Ranking