-
公开(公告)号:KR101852939B1
公开(公告)日:2018-04-30
申请号:KR1020160154440
申请日:2016-11-18
Applicant: 한국과학기술연구원
CPC classification number: G06T13/40 , G06F3/012 , G06F3/017 , G06T7/143 , G06T7/246 , G06T7/73 , G06T2207/10028 , G06T2207/20081 , G06T2207/30201 , G06K9/00302 , G06T7/593
Abstract: 본발명에서는깊이카메라로인식한사용자얼굴표정과손인형의동작을기초로 3차원캐릭터의얼굴표정및 전신동작을구현하고자한다.
-
公开(公告)号:KR101745406B1
公开(公告)日:2017-06-12
申请号:KR1020150124899
申请日:2015-09-03
Applicant: 한국과학기술연구원
IPC: G06K9/00
CPC classification number: G06K9/6202 , G06K9/00389 , G06K9/6218 , G06T7/593 , G06T2207/10028 , G06T2207/30196
Abstract: 실시예들은손 영역을포함하는깊이영상을획득하는깊이영상획득부, 기계학습법을이용하여상기깊이영상중 손영역의깊이포인트들을해당하는손 부위에따라분류하는깊이포인트분류부및 분류된깊이포인트들과각 깊이포인트들에대응하는손 부위사이의거리를이용하여, 상기분류된깊이포인트들에 3차원손 모델을정합시키는손 모델정합부를포함하는깊이영상기반의손 제스처인식장치및 이를이용한인식방법에관련된다.
Abstract translation: 实施例深度点分类器和分类的深度点根据手水平对应于该深度的深度,以获得视频图像获取单元,使用机器学习区域包括手区域的深度图像的手的深度点分类 并且使用对应于每个深度点手水平之间的距离,基于图像手模型匹配的深度手势识别包括用于登记所述分类深度点三维模型手和使用相同的识别的装置。 <
-
公开(公告)号:KR101487812B1
公开(公告)日:2015-01-30
申请号:KR1020130112467
申请日:2013-09-23
Applicant: 한국과학기술연구원
Abstract: 본 발명의 일 실시예는 이러한 비선형 결정체 및 포토닉 결정체를 깊이 카메라에 응용하여 더욱 저렴한 실외용 깊이 카메라를 제공할 수 있다. 이러한 본 발명의 일 실시예에 따르는 적외선을 이용한 깊이 정보 추출 장치는 제 1 적외선을 피사체를 향해 발광하는 적외선 조사부; 상기 피사체로부터 반사된 상기 제 1 적외선을 상기 제 1 적외선의 파장보다 짧은 파장을 갖는 제 2 적외선으로 변환하는 파장 변환부; 및 상기 변환된 제 2 적외선을 감지하여 상기 피사체의 깊이 정보를 추출하는 깊이 정보 추출부;를 포함하며, 상기 파장 변환부는 파장의 길이를 변환하는 결정체로 구성되는 것을 특징으로 한다.
-
公开(公告)号:KR101375649B1
公开(公告)日:2014-03-18
申请号:KR1020120077319
申请日:2012-07-16
Applicant: 한국과학기술연구원
IPC: G06T17/20
Abstract: 본 발명은, 대상 물체를 다양한 각도에서 촬영한 복수의 컬러 영상을 기초로 대상 물체의 3차원 형체를 나타내는 3차원 메쉬 모델에 매핑될 고화질 텍스쳐를 생성하는 텍스쳐 생성 장치 및 방법에 관한 것으로, 본 발명에 따르면, 상대적으로 짧은 시간에 번짐이 적은 고화질의 텍스쳐를 생성할 수 있으며, 대상 물체의 3차원 형체를 나타내는 3차원 메쉬 모델의 사실감을 높여주고, 나아가 해당 대상 물체가 포함되는 디지털 영상 전체의 품질을 개선할 수 있다.
-
公开(公告)号:KR1020180031989A
公开(公告)日:2018-03-29
申请号:KR1020160120565
申请日:2016-09-21
Applicant: 한국과학기술연구원 , 재단법인 실감교류인체감응솔루션연구단
CPC classification number: G06T7/33 , G06T3/0012 , G06T7/90 , G06T2207/20021
Abstract: 실시예들은제1 깊이컬러영상에서특징점을추출하는단계, 추출된특징점을기초로소정면적을갖는공변영역을설정하는단계, 설정된공변영역을복수개의세부영역으로분할하는단계, 상기세부영역을기초로제2 깊이컬러영상과의대응점을결정하기위한제1 기술자(descriptor)를생성하는단계, 생성된제1 기술자와상기제2 깊이컬러영상에대하여생성된제2 기술자를비교하여대응점을결정하는단계를포함하는영상변형에불변인대응점결정방법및 이방법을실행하기위한장치에관한것이다.
Abstract translation: 实施例包括从第一深度彩色图像提取特征点,基于提取的特征点设置具有预定区域的协方差区域,将设置的协方差区域划分成多个细节区域, 生成用于确定具有第二深色图像的对应点的第一描述符,将所生成的第一描述符与针对第二深度颜色图像生成的第二描述符进行比较以确定对应点 以及用于执行该方法的设备。
-
-
公开(公告)号:KR101496440B1
公开(公告)日:2015-02-27
申请号:KR1020130131997
申请日:2013-11-01
Applicant: 한국과학기술연구원
IPC: G06T13/40
Abstract: 본 발명의 일 실시예는 사용자가 입력하는 객체 이미지의 형태, 위치, 종류 등에 상관없이, 사용자가 입력한 객체의 이미지라면 어느 것이나 애니메이션화할 수 있다. 이러한 일 실시예에 따르는 자동 애니메이션 방법은 사용자로부터 임의의 객체에 대한 이미지를 입력받는 단계; 상기 객체의 이미지로부터 관절 정보와 상기 객체의 이미지에 대응하는 메쉬 이미지를 추출하는 단계; 실제 객체의 관절 정보를 추출하는 단계; 상기 실제 객체의 관절 정보와 상기 객체의 이미지의 관절 정보를 매칭시키며, 상기 실제 객체가 움직임에 따라 상기 객체의 이미지의 관절 정보의 변화를 추적하고, 상기 추적된 관절 정보에 따라 상기 메쉬 이미지를 변화시켜, 상기 입력된 객체의 이미지를 애니메이팅(animating)하는 단계;를 포함한다.
Abstract translation: 本发明的实施例可以对用户输入的对象图像的每个图像进行动画,而不管用户输入的对象图像的形状,位置和种类。 根据本发明的实施例的自动动画方法包括:从用户接收任何对象的图像; 从对象的图像中提取关联信息和与对象的图像相对应的网格图像; 提取实际物体的联合图像; 通过将实际图像的联合信息与对象的图像的联合信息进行匹配来对输入对象的图像进行动画化,跟踪作为实际对象移动的对象的图像的联合信息的变化,并且改变网格 根据跟踪联合信息的图像。
-
公开(公告)号:KR101454780B1
公开(公告)日:2014-10-27
申请号:KR1020130066026
申请日:2013-06-10
Applicant: 한국과학기술연구원
IPC: G06T15/04
CPC classification number: G06T15/04 , G06T7/143 , G06T17/20 , G06T2207/10028
Abstract: A method for generating texture for a three-dimensional model, according to an embodiment of the present invention, comprises the steps of: obtaining a three-dimensional model of a subject and a first plane color image through a first recording information acquisition unit; obtaining a plurality of second plane color images for the subject through a second recording information acquisition unit; obtaining a three-dimensional model texture map which represents the three-dimensional model on a plane; and mapping the second plane color images on the three-dimensional model texture map, and texturing the three-dimensional model texture map based on the color information of the second plane color images mapped. Thereby, a three-dimensional color model having high-quality can be produced.
Abstract translation: 根据本发明的实施例的用于生成三维模型的纹理的方法包括以下步骤:通过第一记录信息获取单元获得被摄体的三维模型和第一平面彩色图像; 通过第二记录信息获取单元获得用于对象的多个第二平面彩色图像; 获得一个三维模型纹理图,它代表一个平面上的三维模型; 并在三维模型纹理图上绘制第二平面彩色图像,并且基于映射的第二平面彩色图像的颜色信息对三维模型纹理图纹理化。 因此,可以制造具有高质量的三维颜色模型。
-
公开(公告)号:KR1020140010708A
公开(公告)日:2014-01-27
申请号:KR1020120077319
申请日:2012-07-16
Applicant: 한국과학기술연구원
IPC: G06T17/20
CPC classification number: G06T15/04 , G06T3/0031 , G06T17/20
Abstract: The present invention relates to a texture generation device generating high-definition textures mapped on a three-dimensional mesh model indicating the three-dimensional shape of a target object based on a plurality of color images in which the target object is photographed at various angles and a method for the same. According to the present invention, the high-definition textures which are little spread in relatively short time are generated, and reality of the three-dimensional mesh model indicating the three-dimensional shape of the target object is improved. Moreover, quality of a whole digital image in which the target object is included is improved. [Reference numerals] (110) Reference UV map generating unit; (120) Color UV map generating unit; (130) Reference UV map texture mapping unit; (140) Three-dimensional mesh model texture generating unit; (AA) Three-dimensional mesh model; (BB) Color images
Abstract translation: 本发明涉及一种纹理生成装置,其基于以各种角度拍摄目标对象的多个彩色图像,生成映射在表示目标对象的三维形状的三维网格模型上的高清晰度纹理,以及 一种方法。 根据本发明,产生了在相当短的时间内几乎不扩散的高清晰度纹理,提高了表示目标对象的三维形状的三维网格模型的现实。 此外,提高了包括目标对象的整个数字图像的质量。 (附图标记)(110)参考UV图生成单元; (120)彩色UV图生成单元; (130)参考UV贴图贴图单元; (140)三维网格模型纹理生成单元; (AA)三维网格模型; (BB)彩色图像
-
10.
公开(公告)号:KR101822969B1
公开(公告)日:2018-01-31
申请号:KR1020160112806
申请日:2016-09-01
Applicant: 한국과학기술연구원 , 재단법인 실감교류인체감응솔루션연구단
IPC: A61B5/00 , H01L27/146 , H04N5/33 , H04N5/335
CPC classification number: A61B5/0075 , A61B5/4504 , H01L27/14609 , H01L27/14621 , H01L27/14625 , H01L27/14627 , H01L27/14649 , H01L31/02322 , H04N5/2256 , H04N5/332 , H04N5/374 , A61B5/7225 , H04N5/33 , H04N5/335
Abstract: 본발명은근적외선을생체에조사하는제 1 단계; 상기생체를통과한근적외선을업컨버젼나노파티클(UCNP)을이용하여가시광으로변환하는제 2 단계; 및상기가시광을 CMOS 이미지센서를이용하여수광하여생체이미징영상을생성하는제 3 단계;를포함하는비침습생체이미징방법을제공한다.
Abstract translation: 本发明涉及用近红外线照射生物体的方法, 使用上转换纳米粒子(UCNP)将通过活体的近红外线转换为可见光的第二步骤; 以及通过使用CMOS图像传感器接收可见光以生成活体成像图像的第三步骤。
-
-
-
-
-
-
-
-
-