-
公开(公告)号:KR100366210B1
公开(公告)日:2002-12-31
申请号:KR1020000003179
申请日:2000-01-24
Applicant: 한국과학기술원
IPC: G06T17/00
Abstract: 본 발명은 하나의 표준 얼굴모델로 시작하여 다양한 형상의 얼굴모델을 제작하는 방법에 관한 것이다. 먼저, MPEG-4 SNHC에서 정한 특징점의 위치를 이동시켜 하위 레벨에서 얼굴모델을 변형하고, 하위 레벨 파라미터들을 조합하여 상위레벨에서 전체적인 얼굴을 변형한다. 이러한 얼굴 모델러 제작방법은 계층적으로 구성되어 있기 때문에, 하위 레벨에서의 파라미터 설정이 잘못되어 있으면 그 부분만 변경하면 된다. 또한, 고정된 표준 얼굴모델만을 사용할 수 있는 것이 아니라 다양한 표준 얼굴모델을 생성하여 새로운 모델을 생성해 낼 수도 있다. 따라서, 본 발명을 이용하면 사용 목적에 적합한 얼굴모델을 생성할 수 있다.
-
公开(公告)号:KR1020010073961A
公开(公告)日:2001-08-03
申请号:KR1020000003179
申请日:2000-01-24
Applicant: 한국과학기술원
IPC: G06T17/00
Abstract: PURPOSE: A modeler manufacturing method for generating a human face model is provided to allow parameter definition and setting to be independently changed in different levels in generation of a human face by constituting parameter setting modules in layers. CONSTITUTION: A standard face model is generated/changed and then stored as a form of intermediate file. The intermediate file includes information about a vertex group, a patch group, each point, each patch and each feature point. The minimum feature points necessary for generating the shape of the face are mapped with vertices of the standard face model stored as the middle file. It is determined a group of the vertices of the face model that moves together as the arbitrary random feature points or lower level parameters mapped with the vertices of the standard face model are moved. High level parameters for a user interface are mapped with several lower level parameters.
Abstract translation: 目的:提供一种用于生成人脸模型的建模者制造方法,通过构成参数设置模块来允许参数定义和设置在生成人脸时以不同级别独立地改变。 构成:生成/更改标准面部模型,然后以中间文件的形式存储。 中间文件包括关于顶点组,补丁组,每个点,每个补丁和每个特征点的信息。 用于生成面部形状所需的最小特征点与存储为中间文件的标准面部模型的顶点进行映射。 确定随着任意随机特征点移动一起移动的面部模型的一组顶点,或者移动与标准面部模型的顶点对应的较低级别的参数。 用户界面的高级参数与几个较低级别的参数进行映射。
-
公开(公告)号:KR1020000051216A
公开(公告)日:2000-08-16
申请号:KR1019990001521
申请日:1999-01-19
Applicant: 한국과학기술원
Abstract: PURPOSE: A facial expression method is provided to express more natural and realistic face look and automate a facial expression animation by using a spring mass damper model based on a physical property and a muscle model based on a parameter base model. CONSTITUTION: A facial expression method comprises steps of generating a polygonal face mesh model with a plurality of nodes and edges, assuming each edge as a spring by applying a spring-mass-damper model to a facial mesh model, obtaining a dynamic equation modeling a force transferred to an adjacent node via the edge, imposing a force to an arbitrary part of the facial mesh model according to a facial expression, and limiting a force transfer area when a force is transferred to an arbitrary part of the facial mesh model. If the force is imposed to the arbitrary part of the mesh model, the force is transferred to a limited area of the adjacent node according to the dynamic equation.
Abstract translation: 目的:提供一种面部表情方法,通过使用基于参数基础模型的物理属性和肌肉模型的弹簧质量阻尼器模型来表达更自然和逼真的面部外观,并使面部表情动画自动化。 构成:面部表情方法包括以多个节点和边缘产生多边形面部网格模型的步骤,通过将弹性质量阻尼器模型应用于面部网格模型,假定每个边缘为弹簧,获得动态方程模型 力经由边缘传递到相邻节点,根据面部表情向力量传递到面部网格模型的任意部分,并且当力传递到面部网格模型的任意部分时限制力传递区域。 如果力被施加到网格模型的任意部分,则根据动态方程将力传递到相邻节点的有限区域。
-
公开(公告)号:KR1020060021946A
公开(公告)日:2006-03-09
申请号:KR1020040070673
申请日:2004-09-06
Applicant: 한국과학기술원
Abstract: 본 발명은 퍼스널 로봇과 사람의 상호작용을 위해 로봇의 감정을 얼굴과 몸체로 표현하도록 하는 장치 및 방법에 관한 것이다.
본 발명에 따른 로봇의 감정표현장치는, 로봇이 표현해야 할 감정이 입력되는 수단과, 상기 로봇이 표현해야 할 감정의 표현행위를 선택하는 감정표현행위관리부와, 상기 감정표현행위관리부의 제어를 받아 상기 로봇이 표현해야 할 감정에 해당하는 얼굴표정의 그래픽을 생성하는 얼굴표정생성기와, 상기 얼굴표정 그래픽을 상기 로봇에 장착된 LCD화면에 표시하는 LCD구동부와, 상기 감정표현행위관리부의 제어를 받아 상기 로봇이 표현해야 할 감정에 해당하는 동작을 생성하는 동작생성기와, 상기 동작을 상기 로봇의 몸체 및/또는 팔에 적용하는 로봇구동수단을 포함한다.
로봇, 감정, 그래픽, LCD, 동작파라미터, 얼굴표정, 가상근육, 심장-
公开(公告)号:KR100317137B1
公开(公告)日:2001-12-22
申请号:KR1019990001521
申请日:1999-01-19
Applicant: 한국과학기술원
Abstract: 본발명은물리적특성기반의스프링-매스-댐퍼모델과파라미터기반의근육모델을이용한얼굴표정애니메이션방법에관한것으로써, 더욱자연스럽고실재감있는얼굴표정애니메이션방법을제공하는데 그목적이있다. 이러한본 발명은, 다수의에지와노드로이루어진다각형얼굴매쉬모델을생성하는제1단계와, 상기얼굴메쉬모델에스프링-매스-댐퍼모델을적용하여상기각각의에지를스프링으로가정하고, 에지를통해이웃한노드로전이되는힘의다이나믹방정식을구하는제2단계, 및애니메이션하고자하는얼굴표정에따라상기얼굴메쉬모델의임의의한 부분에힘을가하는제3단계를포함하여, 상기임의의한 부분에힘이가해지면상기다이나믹방정식에따라이웃한노드에게로상기힘이전이되면서자동으로얼굴표정이애니메이션된다.
-
公开(公告)号:KR1020000051217A
公开(公告)日:2000-08-16
申请号:KR1019990001522
申请日:1999-01-19
Applicant: 한국과학기술원
IPC: G06T17/20
Abstract: PURPOSE: A 3 dimensional face modeling method is provided to synthesize a 3 dimensional face near a face structure of a specific person by taking face texture images from a plurality of angles and converting a 3 dimensional mesh model on each texture plane so that it can enhance a function of a 3 dimensional face model generation of a specific person. CONSTITUTION: A 3 dimensional face modeling method comprises steps of taking a plurality of 2 dimensional texture images on a specific person face from at least 4 angles, obtaining a face model similar to the person face by converting the taken texture images into a 3 dimensional face model, generating a panorama image of the person by using the 2 dimensional texture images, and mapping the panorama image on the face model similar to the person face. The face model obtaining step includes projecting a general 3 dimensional face model on a 2 dimensional image plane, obtaining characteristic lines connecting the characteristic points on the texture images, obtaining characteristic lines on the projected general face model, and converting the characteristic lines of the projected general face model in accordance with those of the texture image.
Abstract translation: 目的:提供一种三维面部建模方法,通过从多个角度拍摄面部纹理图像并在每个纹理平面上转换3维网格模型来合成特定人脸部结构附近的三维面,从而可以增强 特定人的三维面部模型生成的功能。 构成:三维面部建模方法包括从至少4个角度在特定人脸上摄取多个2维纹理图像的步骤,通过将所拍摄的纹理图像转换成三维面部来获得与人脸相似的面部模型 模型,通过使用二维纹理图像生成人物的全景图像,并且将全景图像映射在类似于人脸的人脸模型上。 面部模型获取步骤包括在二维图像平面上投影一般的三维面部模型,获得连接纹理图像上的特征点的特征线,获得投影的一般面部模型上的特征线,以及将投影的特征线 一般脸型符合纹理图像。
-
公开(公告)号:KR100639068B1
公开(公告)日:2006-10-30
申请号:KR1020040070673
申请日:2004-09-06
Applicant: 한국과학기술원
Abstract: 본 발명은 퍼스널 로봇과 사람의 상호작용을 위해 로봇의 감정을 얼굴과 몸체로 표현하도록 하는 장치 및 방법에 관한 것이다.
본 발명에 따른 로봇의 감정표현장치는, 로봇이 표현해야 할 감정이 입력되는 수단과, 상기 로봇이 표현해야 할 감정의 표현행위를 선택하는 감정표현행위관리부와, 상기 감정표현행위관리부의 제어를 받아 상기 로봇이 표현해야 할 감정에 해당하는 얼굴표정의 그래픽을 생성하는 얼굴표정생성기와, 상기 얼굴표정 그래픽을 상기 로봇에 장착된 LCD화면에 표시하는 LCD구동부와, 상기 감정표현행위관리부의 제어를 받아 상기 로봇이 표현해야 할 감정에 해당하는 동작을 생성하는 동작생성기와, 상기 동작을 상기 로봇의 몸체 및/또는 팔에 적용하는 로봇구동수단을 포함한다.
로봇, 감정, 그래픽, LCD, 동작파라미터, 얼굴표정, 가상근육, 심장-
公开(公告)号:KR100317138B1
公开(公告)日:2001-12-22
申请号:KR1019990001522
申请日:1999-01-19
Applicant: 한국과학기술원
IPC: G06T17/20
Abstract: 본발명은여러방향에서찍은사람의얼굴텍스처영상을이용하여 3차원메쉬모델을각각텍스처평면상에서변형하고변형된결과를종합하여, 특정사람의얼굴구조에근접한 3차원얼굴을합성하는방법에관한것으로써, 특정사람의 3차원얼굴모델생성의성능을향상시키는얼굴텍스처영상을이용한 3차원얼굴모델링방법을제공하는데 그목적이있다. 이러한본 발명에따른얼굴텍스처영상을이용한 3차원얼굴모델링방법은, 특정사람의얼굴을적어도 4방향에서촬영하여여러장의 2차원텍스처영상을구하는제1단계와, 상기여러장의텍스처영상을이용하여 3차원얼굴모델을변형시켜서상기특정사람의얼굴과비슷한얼굴모델을구하는제2단계, 상기여러장의 2차원텍스처영상을이용하여상기특정사람의파노라마영상을생성하는제3단계, 및상기제2단계에서특정사람의얼굴과비슷하게변형된얼굴모델에상기파노라마영상을텍스처매핑하는제4단계를포함한것을특징으로한다.
-
-
-
-
-
-
-