다시점 영상기반 동적 개체의 디지털 클론 생성 방법
    101.
    发明公开
    다시점 영상기반 동적 개체의 디지털 클론 생성 방법 有权
    动态数字克隆创建方法从多视图捕获动态性能

    公开(公告)号:KR1020100073175A

    公开(公告)日:2010-07-01

    申请号:KR1020080131769

    申请日:2008-12-22

    CPC classification number: G06T13/40

    Abstract: PURPOSE: A method for creating digital clone of a multi-viewpoint image based dynamic object is provided to generate a 3D human body model which enables a behavior feature reproduction of an actor by restoring a shape of an actor and motion information for each frame based on multi-viewpoint. CONSTITUTION: An actor performs pre-defined motions, and a three-dimensional shape restoration unit(100) restores a multi-viewpoint image based three-dimensional shape information for a T-pose multi-viewpoint image. A standard human body model transition unit(102) creates the initiation model of an actor from restored shape image. An intrinsic human body model generator(104) applies the initial human body model to a multi-viewpoint pose learning image.

    Abstract translation: 目的:提供一种用于创建基于多视点图像的动态对象的数字克隆的方法,以生成3D人体模型,其通过基于每个帧恢复运动员的形状和运动信息来实现演员的行为特征再现,基于 多视点。 构成:演员执行预定义的运动,三维形状恢复单元(100)恢复用于T姿势多视点图像的基于多视点图像的三维形状信息。 标准人体模型转移单元(102)从恢复的形状图像创建演员的发起模型。 内在的人体模型发生器(104)将初始人体模型应用于多视角姿势学习图像。

    전경/배경 분리 장치 및 방법
    102.
    发明公开
    전경/배경 분리 장치 및 방법 有权
    从背面分离前置的装置及其方法

    公开(公告)号:KR1020100073081A

    公开(公告)日:2010-07-01

    申请号:KR1020080131666

    申请日:2008-12-22

    CPC classification number: G06K9/38

    Abstract: PURPOSE: An apparatus for separating a foreground from a back ground and a method thereof are provided to enhance the foreground/background separation performance by accurately performing a codeword modeling. CONSTITUTION: A background model generator(300) generates a codebook for foreground/background separation, and includes a codeword generation block(301) and codeword rearrangement block(302). The codebook includes plural codewords, and a foreground/background separation unit(350) separates the foreground from the background by using the generated codebook. A foreground/background decision unit(351) includes a post-processing block(352).

    Abstract translation: 目的:提供一种用于从背景分离前景的装置及其方法,以通过精确地执行码字建模来增强前景/背景分离性能。 构成:背景模型生成器(300)生成用于前景/背景分离的码本,并且包括码字生成块(301)和码字重排块(302)。 码本包括多个码字,并且前景/背景分离单元(350)通过使用生成的码本将前景与背景分离。 前景/背景决定单元(351)包括后处理块(352)。

    모바일 기기의 이미지 변환 장치 및 방법
    103.
    发明授权
    모바일 기기의 이미지 변환 장치 및 방법 有权
    用于在移动设备中变换图像的装置和方法

    公开(公告)号:KR100924689B1

    公开(公告)日:2009-11-03

    申请号:KR1020070132680

    申请日:2007-12-17

    CPC classification number: G06T11/00 G06T2200/32

    Abstract: 본 발명에 따른 모바일 기기의 이미지 변환 장치는, 분리 가우스 필터를 이용하여 원본 이미지를 펜 스타일로 변환한 후 이를 출력하는 펜 스타일 변환부와, 원본 이미지를 카툰 스타일로 변환하여 출력하는 카툰 스타일 변환부와, 최적 포토 이미지 집합 기반으로 원본 이미지에 적용될 포토 모자이크를 생성하고, 생성된 포토 모자이크를 원본 이미지에 적용시켜 출력하는 모자이크 생성부와, 펜 스타일 변환부, 카툰 스타일 변환부 및 모자이크 생성부에서 출력되는 이미지를 출력 장치에 출력하는 이미지 출력부를 포함한다.
    이와 같이, 본 발명은 사람들에게 널리 보급된 각종 모바일 기기에 적용할 수 있는 예술적 변환 기법, 예들 들어 펜 스타일 변환, 카툰 스타일 변환, 포토 모자이크 등의 기법을 제공함으로서, 다양한 효과의 이미지를 모바일 기기에서 직접 생성할 수 있다.
    모바일 기기, 이미지, 변환, 펜 스타일, 모자이크, 카툰 스타일

    3차원 공간에서 시간일관성을 이용한 실루엣 렌더링 장치및 방법
    104.
    发明授权
    3차원 공간에서 시간일관성을 이용한 실루엣 렌더링 장치및 방법 有权
    用于刚体对象的3D时间相干的剪影渲染装置和方法

    公开(公告)号:KR100898990B1

    公开(公告)日:2009-05-25

    申请号:KR1020070094264

    申请日:2007-09-17

    Abstract: 본 발명은 3차원 공간에서 시간일관성을 이용한 실루엣 렌더링 장치 및 방법에 관한 것으로서, 메쉬 형상을 나타내는 메쉬 정보중 3D 오브젝트를 실루엣 추출 알고리즘 중에서 면위에 에지를 생성하는 스무드 서피스 방법을 써서 에지를 추출하는 에지 추출모듈과, 에지 추출모듈에서 구해진 각각의 에지 간을 연결하여 스트로크를 생성하는 스트로크 생성모듈과, 상기 스트로크 생성모듈로부터 상기 스트로크의 현재 프레임과 이전 프레임에서 추출된 카메라와 물체의 움직임 정보를 통하여 연관된 스트로크를 결정하여 해당 스트로크의 스타일 파라미터를 계산하고 세팅하는 파라미터 계산모듈로 구성되는 것을 특징으로 하므로, 3D 상에서 실루엣 에지가 움직인다는 개념 아래에 실루엣 에지의 파라미터를 프레임간의 시간적 일관성을 가지는 실루엣의 스타일 적용을 통하여 아티스트들이 실루엣 표현에 더 자유로울 수 있을 것이며, 또한, 3차원 오브젝트의 모양을 효과적으로 반영하는 실루엣의 렌더링의 스타일화의 시간적 일관성을 해결한 효과가 있는 것이다.
    실루엣 렌더링, 시간적 일관성, 애니메이션, 비사실적 렌더링

    캐릭터 애니메이션과 메쉬 변형을 이용한 카툰 애니메이션제작 방법 및 시스템
    105.
    发明授权
    캐릭터 애니메이션과 메쉬 변형을 이용한 카툰 애니메이션제작 방법 및 시스템 有权
    使用角色动画和网格变形的卡通动画的制作方法和系统

    公开(公告)号:KR100860375B1

    公开(公告)日:2008-09-25

    申请号:KR1020070071177

    申请日:2007-07-16

    Abstract: 본 발명은 캐릭터 애니메이션과 메쉬 변형을 이용한 카툰 애니메이션 제작 방법 및 시스템에 관한 것으로서, 캐릭터의 변형되지 않은 모션을 데이터화한 기존 모션데이터를 입력받아 기존 모션데이터로부터 캐릭터의 각 관절이 갖는 애니메이션 값을 분석하여, 파라미터를 추출하는 모션분석모듈과, 캐릭터의 외관을 나타내는 기존 메쉬데이터, 파라미터 및 뼈대와 메쉬가 밀착을 위해 조합된 정보인 기존 스키닝데이터를 입력받아 변형된 메쉬데이터를 생성하는 메쉬변형모듈과, 기존 모션데이터를 입력받아 파라미터를 이용하여 모션을 변형시키는 모션변형모듈과, 변형된 메쉬데이터, 변형된 모션데이터 및 기존 스키닝데이터를 입력받아 최종적으로 카툰 스타일의 모션을 갖는 캐릭터 애니메이션 데이터를 생성하는 스키닝모듈로 구성되므로, 3차원 애니메이션 제작 기법을 이용하면서도 2차원 셀 애니메이션 스타일의 애니메이션을 제작할 때 캐릭터가 2차원 카툰 스타일로 동작하도록 기존 모션을 변형하고 애니메이션에 따라 메쉬를 만화적으로 과장되게 변형하며 캐릭터가 이를 수용할 수 있는 구조를 제공함으로써, 보다 생동감있는 2차원 애니메이션에 가까운 3차원 애니메이션을 제공하는 효과가 있다.
    캐릭터, 애니메이션, 메쉬, 모션, 변형,

    전략적 시나리오 개발 시스템 및 그 방법
    106.
    发明公开
    전략적 시나리오 개발 시스템 및 그 방법 失效
    发展战略场景的系统与方法

    公开(公告)号:KR1020060038766A

    公开(公告)日:2006-05-04

    申请号:KR1020040087901

    申请日:2004-11-01

    CPC classification number: G06Q10/06 G06Q10/0637

    Abstract: 1. 청구범위에 기재된 발명이 속한 기술분야
    본 발명은 전략적 시나리오 개발 시스템 및 그 방법에 관한 것임.
    2. 발명이 해결하려고 하는 기술적 과제
    본 발명은 시나리오 도출 과정에서 상향식 접근(Bottom-up approach)을 통해 시스템 사고 및 계량적 분석 과정을 수행하며, 또한 방법론 전개 과정에서 고려 영향요소 및 제반 분석 과정의 데이터베이스화 및 자동화를 실현함으로써, 시나리오 개발과 사업 전략 수립의 신속성· 체계성·정확성을 확보하기 위한, 전략적 시나리오 개발 시스템 및 그 방법을 제공하는데 그 목적이 있음.
    3. 발명의 해결방법의 요지
    본 발명은, 기획자들의 합의에 의해 도출된 최초 시나리오 영역 및 하부 영역을 기반으로 시스템 사고를 실시하여 시나리오 영역 및 하부 영역들의 유기적 연결 관계를 검증하고, 기획자들에 의해 선정된 상기 영역에서 가장 중요하게 고려되어져야 할 영향 요소에 대하여 영향 매트릭스 분석을 수행하여 계량화된 점수를 산정하고, 상기 점수를 기반으로 상기 영향 요소에 대한 다이나믹 인덱스 산출 및 그룹 분류를 수행하기 위한 시나리오 영역 분석 수단; 상기 시나리오 영역 분석 수단으로부터 산출된 다이나믹 인덱스에 근거하여 선정된 핵심 영향 요소들의 프로젝션 카탈로그를 작성하기 위한 시나리오 진단 수단; 상기 시나리오 진단 수단으로부터 획득된 핵심 영향 요소들의 미래 전망치간의 정합성 분석을 수행하고, 정합성 분석 을 통해 획득한 계량적 결과로부터 프로젝션 번들 추출 분석을 수행하고, 추출한 번들에 대한 군집 분석, 다차원척도 분석을 수행하여 최종 시나리오를 결정하기 위한 시나리오 개발 수단; 및 상기 시나리오 영역 분석 수단, 상기 시나리오 진단 수단 및 상기 시나리오 개발 수단으로부터 생성된 데이터를 저장하기 위한 데이터베이스를 포함함.
    4. 발명의 중요한 용도
    본 발명은 전략적 시나리오 개발에 이용됨.
    시나리오(scenario), 불확실성 경영(Management under Uncertainty)

    고속 마커프리 모션 캡쳐 장치 및 방법
    107.
    发明授权
    고속 마커프리 모션 캡쳐 장치 및 방법 失效
    用于高速无标记运动捕获的装置和方法

    公开(公告)号:KR100507780B1

    公开(公告)日:2005-08-17

    申请号:KR1020020081954

    申请日:2002-12-20

    Abstract: 본 발명은 고속 마커프리 모션 캡쳐 장치 및 방법에 관한 것이다.
    본 발명은 조명 변화나 배경 또는 카메라의 잡음, 동작자의 여러 동작에 대해 강건하게 머리, 손, 발, 몸통, 팔, 다리 등과 같은 신체의 특정 끝 부분(End-effector)에 대응하는 신체 특징점을 고속 검출(detection)할 수 있고, 추출된 신체 특징점을 3차원 공간상에서 안정적으로 직접 추적(tracking)할 수 있으며, 조명 조건의 변화나 그림자로 인한 특징점의 위치 오차를 자동으로 보정하고, 특징들간의 겹침이나 특징의 사라짐에 대해서도 안정적으로 특징점을 추적할 수 있으며, 추출된 신체 특징점의 3차원 좌표를 이용하여 중간 관절 좌표를 추정할 때에, 모션 데이터베이스의 활용 없이도 동작자의 중간 관절 위치를 사실성 높게 추정하여 인체 모델로 복원(restoration)하도록 되어 있으며,
    이에 따라서, 모션 캡쳐에서 필요로 하는 3D 모션 데이터의 안정성과 사실성을 확보할 수 있다.

    Abstract translation: 一种高速无标记运动捕捉,能够在照明变化或背景中以高速度强力检测对应于身体的端部(例如头部,手部,脚部,躯干,手臂和腿部)的身体的特征点 或相机的噪音。 身体的提取特征点可以在三维空间中稳定地直接跟踪。 可以自动地校正由于照明条件或阴影的改变引起的特征点的位置误差,并且可以相对于特征点的重叠和消失来稳定跟踪特征点。 此外,当使用提取的身体的特征点的三维坐标来估计中间关节的坐标时,本发明通过以高精度估计运动员的中间关节的位置而不使用运动数据库来恢复人体模型 从而确保运动捕捉中所需的三维运动数据的稳定性和现实性。

    3차원 가상 공간 네비게이션 시스템과 방법
    108.
    发明公开
    3차원 가상 공간 네비게이션 시스템과 방법 无效
    3D虚拟世界中的导航方法和系统

    公开(公告)号:KR1020050063302A

    公开(公告)日:2005-06-28

    申请号:KR1020030094693

    申请日:2003-12-22

    Abstract: 본 발명에 따른 3차원 가상 공간 네비게이션 시스템은 사용자 또는 사물에서 발생되는 음향을 제공하는 음원과, 음향이 입력되는 다수의 입력단을 구비하며, 상기 입력단을 통해 입력되는 음향들의 크기 비교를 통해 음원의 3차원 방향을 추정하고, 음향의 강도를 측정하여 음원의 근접도를 계산하는 음향 입력 모듈과, 3차원 방향과 근접도에 따라 연결된 영상 촬영 수단을 이동시키고, 영상 촬영 수단에서 촬영된 영상 데이터를 표시 장치에 디스플레이하는 가상 공간 네비게이션 장치를 포함한다.
    이와 같이, 본 발명은 3차원 음원의 위치를 통해 3차원의 움직임을 얻어내고 이를 가상 공간의 카메라 움직임에 반영함으로써, 기존의 마우스나 키보드와 같은 2차원 입력도구를 이용한 가상 공간 네비게이션 보다 직관적으로 가상 공간을 네비게이션할 수 있는 효과가 있다.
    또한, 본 발명은 26방향의 입력이 가능하기 때문에 26가지 이상의 키를 대신할 수 있을 뿐만 아니라 음향의 강도가 사용되면 키의 수를 더욱 증가시킬 수 있어 3차원 가상 공간 네비게이션 시스템에 다양한 입력을 제공할 수 있다.

    고속 마커프리 모션 캡쳐 장치 및 방법
    109.
    发明公开
    고속 마커프리 모션 캡쳐 장치 및 방법 失效
    用于捕获高速标记自由运动的装置和方法

    公开(公告)号:KR1020040055310A

    公开(公告)日:2004-06-26

    申请号:KR1020020081954

    申请日:2002-12-20

    Abstract: PURPOSE: An apparatus and a method for capturing high speed marker free motion are provided to estimate highly a middle articulation position of a mover without using a motion database, thereby restoring a human body model. CONSTITUTION: A two dimensional characteristic point extraction module(10) first obtains an image relating to the background in which a mover does not exist by using plural cameras(11,12) with other view angles and stores the obtained image into an RGB color space having the characteristic capable of emphasizing easily difference of color and an HSI color space having the characteristic capable of emphasizing easily similarity of color. The module(10) obtains the image relating to the initial posture of the mover, makes a bulk model relating head, hand, feet, body, arms, legs, extracts and stores an adjacent connection relation among them. A three dimensional characteristic point extraction module(20) matches three-dimensionally two dimensional characteristic points(13), restores three dimensional coordinates, predicts and extracts the characteristic point shape transformation and the centroid of the body. A three dimensional characteristic point restoration module(20) estimates a middle articulation position by using three dimensional coordinates of two dimensional characteristic points, produces three dimensional motion data, and restores the motion data into a human body's model.

    Abstract translation: 目的:提供用于捕获高速无标记自由运动的装置和方法,以高度估计移动器的中间关节位置,而不使用运动数据库,从而恢复人体模型。 构成:二维特征点提取模块(10)通过使用具有其他视角的多个摄像机(11,12)首先获得与不存在移动器的背景有关的图像,并将获得的图像存储到RGB颜色空间 具有能够容易地强调颜色差异的特征和具有能够强调颜色容易相似的特征的HSI颜色空间。 模块(10)获取与移动器的初始姿势相关的图像,使得头,手,脚,身体,手臂,腿的批量模型相互间的连接关系提取和存储。 三维特征点提取模块(20)与三维特征点(13)匹配,恢复三维坐标,预测并提取特征点形状变换和身体重心。 三维特征点恢复模块(20)通过使用二维特征点的三维坐标估计中间关节位置,产生三维运动数据,并将运动数据恢复到人体模型中。

    가상현실기술을 이용한 로봇 원격제어 시스템 및 방법
    110.
    发明公开
    가상현실기술을 이용한 로봇 원격제어 시스템 및 방법 无效
    使用虚拟现实技术的机器人远程控制系统及其方法

    公开(公告)号:KR1020010076786A

    公开(公告)日:2001-08-16

    申请号:KR1020000004141

    申请日:2000-01-28

    Abstract: PURPOSE: A remote control system of a robot using virtual reality technology is provided to recognize remote environmental data by using three-dimensional image data, auditory and tactual data as well as to control a robot easily by intuition. CONSTITUTION: A remote robot(2) transmits environmental data including visual, auditory and tactual data to a controller(1). The controller controls the posture of the robot by transmitting motion data to the robot. For this, the robot has two cameras(25,26), a microphone(27) and a motion sensor(28) additionally. The robot obtains the visual data through the two cameras, the auditory data through the microphone and the tactual data through the motion sensor respectively. All of the data are transferred to the controller through an HMD(Head Mounted Display,21), a speaker(22) and a vibrator(23). The motion data of the controller is transferred to the robot through a magnetic sensor(24) to control the robot easily. The two cameras and the microphone are mounted at the head of the robot. Thereby, the desired environmental data are collected when the head of the robot is moved following the head of the controller. The controller moves the body to control the robot, and the motion data of the body are converted into numerical data. The data moves the remote robot.

    Abstract translation: 目的:提供使用虚拟现实技术的机器人远程控制系统,通过使用三维图像数据,听觉和触觉数据以及通过直觉轻松控制机器人来识别远程环境数据。 构成:远程机器人(2)将包括视觉,听觉和触觉数据的环境数据发送到控制器(1)。 控制器通过向机器人发送运动数据来控制机器人的姿势。 为此,机器人另外具有两个摄像机(25,26),麦克风(27)和运动传感器(28)。 机器人通过两台摄像机获取视觉数据,通过麦克风获取听觉数据,并通过运动传感器分别获得触觉数据。 所有数据通过HMD(头戴式显示器,21),扬声器(22)和振动器(23)传送到控制器。 控制器的运动数据通过磁传感器(24)传送到机器人,以便容易地控制机器人。 两台摄像机和麦克风安装在机器人的头部。 因此,当机器人的头部沿着控制器的头部移动时,收集期望的环境数据。 控制器移动身体来控制机器人,身体的运动数据被转换成数字数据。 数据移动远程机器人。

Patent Agency Ranking