Abstract:
본 발명에 따른 인체 모델의 형상 변형 방법은, 인체 스캔 데이터 또는 폴리곤 인체 모델로 구성된 인체 모델 데이터를 입력받아 조인트-스켈레톤 골격 구조 기반 키 평면을 생성함과 더불어 생성된 키 평면의 특징점 기반 Nurbs 곡면으로 구성된 특징점 기반의 인체 모델 데이터를 생성하는 단계와, 다수의 특정 모션에서 조인트, 키 평면 및 키 평면 위의 특징점들의 파라미터에 관한 통계적 변형 정보를 생성하는 단계와, 특징점 기반의 인체 모델 데이터와 통계적 변형 정보를 이용하여 인체 모델 형상을 변형하고 애니메이션을 수행하는 단계를 포함한다. 이와 같이, 본 발명은 조인트-스켈레톤(Joint-Skeleton) 구조의 특징점 기반 Nurbs 곡면 인체 모델을 이용하여 연기자의 모션을 캡쳐한 모션 캡쳐 데이터에 따라 인체 형상을 실시간에 사실적이고 자연스럽게 변형할 수 있다. 삼차원 인체 모델, Nurbs 곡면, 키 평면, 특징점, 통계적 변형 정보
Abstract:
PURPOSE: A method for creating digital clone of a multi-viewpoint image based dynamic object is provided to generate a 3D human body model which enables a behavior feature reproduction of an actor by restoring a shape of an actor and motion information for each frame based on multi-viewpoint. CONSTITUTION: An actor performs pre-defined motions, and a three-dimensional shape restoration unit(100) restores a multi-viewpoint image based three-dimensional shape information for a T-pose multi-viewpoint image. A standard human body model transition unit(102) creates the initiation model of an actor from restored shape image. An intrinsic human body model generator(104) applies the initial human body model to a multi-viewpoint pose learning image.
Abstract:
본 발명은 비디오카메라를 통해 입력된 3차원 얼굴 메쉬의 모든 버텍스에 대해 다른 메쉬들과의 대응 관계를 설정하고 평균 3차원 얼굴 모델을 생성하고, 평균 얼굴 모델과 얼굴 모델간의 공분산 행렬의 주성분 분석을 통해 기하 모델 및 텍스쳐 분산 모델을 생성하는 전처리부와, 비디오카메라로부터 입력된 얼굴 연기 동영상 중에서 정면을 응시하는 무표정 상태의 얼굴 영상 프레임에 전처리부에서 생성한 평균 3차원 얼굴 모델을 투영하여 연기자의 3차원 얼굴 모델을 생성하는 얼굴모델생성부와, 애니메이션 제어 모델을 가진 3차원 얼굴 모델 템플릿을 얼굴모델생성부에서 생성한 연기자의 3차원 얼굴 모델에 전이시켜 애니메이션 제어 모델을 갖춘 연기자의 3차원 얼굴모델을 생성하는 전이부와, 전이부에 의해 전이된 애니메이션 제어 모델을 갖춘 연기자의 3차원 얼굴 모델을 표정 연기가 있는 얼굴 애니메이션 비디오 프레임에 투영시키는 투영부와, 투영부에 의해 투영된 오차를 계산하는 오차계산부와, 오차계산부에 의해 계산된 오차가 최소화되는 방향으로 조인트를 이동 및 회전 변환하여 메쉬를 변형하는 메쉬변형부로 구성되므로, 이상에서 설명한 본 발명에 의해 연기자의 얼굴 연기를 한 대의 비디오 카메라로 촬영한 얼굴 연기 동영상으로부터 손쉽게 3차원 애니메이션을 생성할 수 있는 효과가 있다.
Abstract:
A head motion tracking method for 3D face animation is provided to automatically carry out natural 3D face model animation without a manual work, thereby saving time and a cost. An initial face motion to be adjusted to a 3D model image is obtained from an image inputted from one video camera(S300). A silhouette of the 3D model is produced and projected(S302). The silhouette generated from the 3D model is matched with a silhouette obtained by a statistical characteristic point tracking method(S304). Motion parameters for the 3D model image are obtained through motion compensation using texture to conduct a 3D head motion tracking function(S306). A characteristic point of the 3D model is matched with a characteristic point of a 2D image to calculate initial motion parameters.
Abstract:
The present invention discloses a method and a device for processing graphic data. The device for processing the graphic data includes: a 3D graphic data generating unit which generates 3D graphic data used as the input data of an output device to output a figure in a multi-layer type; a format converting unit which converts the format of the 3D graphic data into a format to be recognized in the output device; a volume area extracting unit which extracts a volume area which is formed by the output device by checking the integrity of the 3D graphic data; and a 3D graphic data editing unit which edits the 3D graphic data by considering a forming process according to the volume area.
Abstract:
Disclosed are a device and a method for creating a three-dimensional caricature. The device for creating a three-dimensional caricature comprises a three-dimensional face data generation unit for generating three-dimensional face data of a user corresponding to a facial shape and texture of the user; a three-dimensional characteristic face model generation unit for generating a three-dimensional characteristic face model according to a characteristic facial shape and texture based on the three-dimensional face data and a reference face; and a three-dimensional caricature generation unit for generating a three-dimensional caricature using the three-dimensional characteristic face model and a caricature base face model.
Abstract:
본 발명은 개체 표준 메쉬 모델의 파라메트릭 제어를 통한 자동 리깅 및 형상 전이 방법에 관한 것으로, 골격구조를 갖는 동적 개체의 스캔 데이터 또는 입력된 삼차원 메쉬(Mesh) 모델로부터 조인트-스켈레톤(Joint-Skeleton) 구조를 추출하고, 해부학 정보에 근거하여 근육 및 외형 곡면을 생성하고, 추출된 조인트-스켈레톤 구조와 생성된 근육 및 외형 곡면을 이용하여 모델의 외형을 근사화한 표준 메쉬 모델을 생성하는 단계와, 동적 개체의 다시점(Multi-view) 영상 정보와 근사화된 표준 메쉬 모델의 투영(Projection) 영상 정보 사이의 오차가 허용 오차 이내가 되도록 파라미터를 제어하여, 표준 메쉬 모델의 전이를 수행하는 단계를 포함한다.