-
公开(公告)号:KR1020150103520A
公开(公告)日:2015-09-11
申请号:KR1020140025072
申请日:2014-03-03
Applicant: 한국전자통신연구원
CPC classification number: G06K9/00355 , G06T7/11 , G06T7/207 , G06T2207/10028 , G06T2207/10048 , H04N5/2256 , H04N5/23219 , H04N5/33 , H04N13/106 , H04N13/254 , H04N13/271
Abstract: 손 동작 인식 장치는 손을 포함하는 제1 해상도의 영상과, 손을 포함하며 상기 제1 해상도보다 높은 제2 해상도의 영상을 획득하며, 제1 해상도의 영상과 제2 해상도의 영상을 맵핑하고, 제1 해상도의 영상으로부터 손 위치를 추출하며, 제1 해상도의 영상과 맵핑된 제2 해상도의 영상으로부터 손 위치에 해당하는 손 영역을 획득한 후 손 영역으로부터 손 동작을 추정한다.
Abstract translation: 本发明涉及用于识别手动的方法和装置。 根据本发明,该方法包括以下步骤:获得包括手的第一分辨率图像和包括手的分辨率高于第一分辨率图像的第二分辨率图像; 映射第一和第二分辨率图像; 从第一分辨率图像提取手的位置; 从与第一分辨率图像映射的第二分辨率图像获得对应于手的位置的手区域; 并且从手区域估计手运动。
-
公开(公告)号:KR1020150069615A
公开(公告)日:2015-06-24
申请号:KR1020130155717
申请日:2013-12-13
Applicant: 한국전자통신연구원
IPC: G06F3/01
Abstract: 본발명은사용자가취하는동작을감지하는감지부, 상기감지부에의해상기사용자의동작이감지된감지정보를처리하여상기사용자가취한특정동작을을인식하는인식부, 및상기인식부에의해인식된상기사용자의특정동작을고려하여햅틱(haptic) 피드백정보의출력여부를판단하며, 상기판단결과에따라출력되는상기햅틱피드백정보를휴대용단말장치, 또는스피커장치중 적어도하나의외부장치로전달하여상기사용자에게햅틱피드백을제공하는제어부를포함하는사용자동작인식기반의햅틱피드백제공장치및 그동작방법에관한것이다.
Abstract translation: 本发明涉及一种用于基于用户行为识别提供触觉反馈的装置及其方法,其中本发明包括:检测单元,用于检测由用户做出的运动; 识别单元,用于通过处理检测信息来识别用户做出的特定运动,作为用户的运动由检测单元检测; 以及控制单元,用于考虑由识别单元识别的用户的特定运动来确定是否输出触觉反馈信息,并且将根据确定结果输出的触觉反馈信息发送到至少一个外部 移动终端设备或扬声器设备中的设备,以便向用户传送触觉反馈。
-
公开(公告)号:KR1020150061488A
公开(公告)日:2015-06-04
申请号:KR1020130145691
申请日:2013-11-27
Applicant: 한국전자통신연구원
CPC classification number: G06K9/00335 , G06F3/017 , G06K9/00369 , G06T7/50 , G06T2207/10028 , G06T2207/20076 , G06T2207/30196
Abstract: 3차원사용자자세추정장치는사용자의깊이영상으로부터사용자몸에해당하는사용자영역을추출하고, 사용자영역내의픽셀각각에대해랜덤결정포레스트(Randomized Decision Forest)를이용하여상기골격관절영역에서의중심점을결정하며, 골격관절영역에서의중심점을이용하여골격정보를생성한후 골격정보로부터사용자의자세를추정한다.
Abstract translation: 用于估计三维用户姿态的装置从用户的深度视频中提取与用户身体相对应的用户区域,通过对用户区域内的每个像素使用随机决策树来确定帧联合区域的中心点,生成 通过使用帧联合区域的中心点的帧信息,并且从帧信息估计用户的姿势。
-
24.
公开(公告)号:KR1020140126807A
公开(公告)日:2014-11-03
申请号:KR1020130044234
申请日:2013-04-22
Applicant: 한국전자통신연구원
CPC classification number: G06F3/017 , G06F3/0304 , G06K9/00335 , G06K9/2036
Abstract: 사용자의 동작 인식을 위해 패턴을 투사하는 프로젝터와 이러한 프로젝터를 이용한 동작 인식 장치 및 방법이 개시된다. 동작 인식을 위해 패턴을 투사하는 프로젝터는 광 발생부와, 광 발생부에서 발생한 광(light)을 미리 설정된 방향으로 가이드하는 광 가이드부와, 광 가이드부로부터 전달받은 광을 콜리메이트(collimate)하는 콜리메이트 렌즈와, 콜리메이트 렌즈를 통과한 광을 이용하여 패턴을 생성하는 회절 광학 소자(DOE: Diffractive Optical Element)를 포함한다. 또한, 동작 인식 장치는 패턴을 투사하는 프로젝터와, 투사된 패턴을 촬영하여 깊이 정보를 포함하는 영상을 생성하는 카메라와, 깊이 정보를 포함하는 영상을 이용하여 사용자의 동작을 인식하고, 인식된 사용자의 동작에 상응하는 명령이 수행되도록 하는 제어부를 포함한다.
Abstract translation: 公开了用于运动识别的投影图案的投影仪,使用投影仪的运动识别装置及其方法。 用于投影用于运动识别的图案的投影仪包括:光产生单元; 光导单元,用于沿着预定方向引导在所述光产生单元中产生的光; 准直透镜,用于准直从导光单元传输的光; 以及使用通过准直透镜的光产生图案的衍射光学元件(DOE)。 此外,运动识别装置包括:投影图案的投影仪; 用于通过拍摄投影图案来产生包括深度信息的图像的相机; 以及控制单元,用于使用包括深度信息的图像来识别用户的运动,并且执行与用户的识别的运动相对应的命令。
-
公开(公告)号:KR1020130027671A
公开(公告)日:2013-03-18
申请号:KR1020110090999
申请日:2011-09-08
Applicant: 한국전자통신연구원
IPC: H04N15/00
CPC classification number: G02B5/04 , G01J3/0289 , G02B5/26
Abstract: PURPOSE: A depth information acquisition device and a three-dimensional information acquisition system are provided to acquire a depth image and a color image by radiating reflection light according to a wavelength. CONSTITUTION: A pattern radiating unit(110) radiates a defined infrared pattern to an object(1000) by using a light source module(112). An image photographing unit(120) captures reflection light by dividing the reflection light reflected from a target object according to a wavelength. A control module(131) of a control unit(130) calculates the depth information of a color image based on the color image and a depth image according to a program stored in a memory module(132). [Reference numerals] (1000) Object; (110) Pattern radiating unit; (111) Pattern radiating optical module; (112) Light source module; (113) Light source control module; (120) Image photographing unit; (121) Condensing module; (122) Spectral module; (123) Color image measuring module; (124) Infrared ray image measuring module; (130) Control unit; (131) Control module; (132) Memory module; (AA) Reflected light
Abstract translation: 目的:提供深度信息获取装置和三维信息获取系统,以通过根据波长辐射反射光来获取深度图像和彩色图像。 构成:图案辐射单元(110)通过使用光源模块(112)将限定的红外图案辐射到物体(1000)。 图像拍摄单元(120)通过根据波长划分从目标物体反射的反射光来捕获反射光。 控制单元(130)的控制模块(131)根据存储在存储器模块(132)中的程序,基于彩色图像和深度图像来计算彩色图像的深度信息。 (附图标记)(1000)对象; (110)模式辐射单元; (111)模式辐射光模块; (112)光源模块; (113)光源控制模块; (120)图像拍摄单元; (121)冷凝模块; (122)光谱模块; (123)彩色图像测量模块; (124)红外线图像测量模块; (130)控制单元; (131)控制模块; (132)内存模块; (AA)反射光
-
公开(公告)号:KR101199475B1
公开(公告)日:2012-11-09
申请号:KR1020080131767
申请日:2008-12-22
Applicant: 한국전자통신연구원
CPC classification number: G06T15/205
Abstract: 3차원 정보 복원에 사용되는 가장 일반적인 방법 중 하나는 여러 방향의 시점으로부터 획득한 2차원의 영상정보를 조합하는 것이다. 이때, 2차원 영상의 숫자가 많고 해상도가 높으면 복원 모델의 정확도를 높일 수 있으나 처리 시간 역시 크게 증가한다. 본 발명에서는 연산 시간이 매우 많이 소요되는 기존의 문제점 해결을 위하여 복셀(voxel; volume + pixel) 큐브(cube)의 꼭지점이 아닌 중점을 기준으로 객체 영역 포함 여부를 판단하고, 이때 손실될 수 있는 외곽 정보를 메쉬 변환 단계에서 효율적으로 보완함으로써 계산시간을 단축하고 모델의 정확도를 향상할 수 있는 방법을 제안한다.
실루엣, 비주얼 헐, 3D 모델, 시점종속-
公开(公告)号:KR101095860B1
公开(公告)日:2011-12-21
申请号:KR1020080131372
申请日:2008-12-22
Applicant: 한국전자통신연구원
Abstract: 본 발명에 따른 인체 모델의 형상 변형 방법은, 인체 스캔 데이터 또는 폴리곤 인체 모델로 구성된 인체 모델 데이터를 입력받아 조인트-스켈레톤 골격 구조 기반 키 평면을 생성함과 더불어 생성된 키 평면의 특징점 기반 Nurbs 곡면으로 구성된 특징점 기반의 인체 모델 데이터를 생성하는 단계와, 다수의 특정 모션에서 조인트, 키 평면 및 키 평면 위의 특징점들의 파라미터에 관한 통계적 변형 정보를 생성하는 단계와, 특징점 기반의 인체 모델 데이터와 통계적 변형 정보를 이용하여 인체 모델 형상을 변형하고 애니메이션을 수행하는 단계를 포함한다.
이와 같이, 본 발명은 조인트-스켈레톤(Joint-Skeleton) 구조의 특징점 기반 Nurbs 곡면 인체 모델을 이용하여 연기자의 모션을 캡쳐한 모션 캡쳐 데이터에 따라 인체 형상을 실시간에 사실적이고 자연스럽게 변형할 수 있다.
삼차원 인체 모델, Nurbs 곡면, 키 평면, 특징점, 통계적 변형 정보-
公开(公告)号:KR1020100073175A
公开(公告)日:2010-07-01
申请号:KR1020080131769
申请日:2008-12-22
Applicant: 한국전자통신연구원
CPC classification number: G06T13/40
Abstract: PURPOSE: A method for creating digital clone of a multi-viewpoint image based dynamic object is provided to generate a 3D human body model which enables a behavior feature reproduction of an actor by restoring a shape of an actor and motion information for each frame based on multi-viewpoint. CONSTITUTION: An actor performs pre-defined motions, and a three-dimensional shape restoration unit(100) restores a multi-viewpoint image based three-dimensional shape information for a T-pose multi-viewpoint image. A standard human body model transition unit(102) creates the initiation model of an actor from restored shape image. An intrinsic human body model generator(104) applies the initial human body model to a multi-viewpoint pose learning image.
Abstract translation: 目的:提供一种用于创建基于多视点图像的动态对象的数字克隆的方法,以生成3D人体模型,其通过基于每个帧恢复运动员的形状和运动信息来实现演员的行为特征再现,基于 多视点。 构成:演员执行预定义的运动,三维形状恢复单元(100)恢复用于T姿势多视点图像的基于多视点图像的三维形状信息。 标准人体模型转移单元(102)从恢复的形状图像创建演员的发起模型。 内在的人体模型发生器(104)将初始人体模型应用于多视角姿势学习图像。
-
公开(公告)号:KR100918095B1
公开(公告)日:2009-09-22
申请号:KR1020070094263
申请日:2007-09-17
Applicant: 한국전자통신연구원
Abstract: 본 발명은 비디오카메라를 통해 입력된 3차원 얼굴 메쉬의 모든 버텍스에 대해 다른 메쉬들과의 대응 관계를 설정하고 평균 3차원 얼굴 모델을 생성하고, 평균 얼굴 모델과 얼굴 모델간의 공분산 행렬의 주성분 분석을 통해 기하 모델 및 텍스쳐 분산 모델을 생성하는 전처리부와, 비디오카메라로부터 입력된 얼굴 연기 동영상 중에서 정면을 응시하는 무표정 상태의 얼굴 영상 프레임에 전처리부에서 생성한 평균 3차원 얼굴 모델을 투영하여 연기자의 3차원 얼굴 모델을 생성하는 얼굴모델생성부와, 애니메이션 제어 모델을 가진 3차원 얼굴 모델 템플릿을 얼굴모델생성부에서 생성한 연기자의 3차원 얼굴 모델에 전이시켜 애니메이션 제어 모델을 갖춘 연기자의 3차원 얼굴모델을 생성하는 전이부와, 전이부에 의해 전이된 애니메이션 제어 모델을 갖춘 연기자의 3차원 얼굴 모델을 표정 연기가 있는 얼굴 애니메이션 비디오 프레임에 투영시키는 투영부와, 투영부에 의해 투영된 오차를 계산하는 오차계산부와, 오차계산부에 의해 계산된 오차가 최소화되는 방향으로 조인트를 이동 및 회전 변환하여 메쉬를 변형하는 메쉬변형부로 구성되므로, 이상에서 설명한 본 발명에 의해 연기자의 얼굴 연기를 한 대의 비디오 카메라로 촬영한 얼굴 연기 동영상으로부터 손쉽게 3차원 애니메이션을 생성할 수 있는 효과가 있다.
-
公开(公告)号:KR1020090065351A
公开(公告)日:2009-06-22
申请号:KR1020070132851
申请日:2007-12-17
Applicant: 한국전자통신연구원
CPC classification number: G06T13/40 , G06K2009/3291 , G06T7/251 , G06T7/277 , G06T2207/10016 , G06T2207/30201
Abstract: A head motion tracking method for 3D face animation is provided to automatically carry out natural 3D face model animation without a manual work, thereby saving time and a cost. An initial face motion to be adjusted to a 3D model image is obtained from an image inputted from one video camera(S300). A silhouette of the 3D model is produced and projected(S302). The silhouette generated from the 3D model is matched with a silhouette obtained by a statistical characteristic point tracking method(S304). Motion parameters for the 3D model image are obtained through motion compensation using texture to conduct a 3D head motion tracking function(S306). A characteristic point of the 3D model is matched with a characteristic point of a 2D image to calculate initial motion parameters.
Abstract translation: 提供了一种用于3D人脸动画的头部运动跟踪方法,可以自动执行自然3D人脸模型动画,而无需手动工作,从而节省时间和成本。 从从一台摄像机输入的图像获得要调整到3D模型图像的初始面部动作(S300)。 生成并投影3D模型的轮廓(S302)。 从3D模型生成的轮廓与通过统计特征点追踪方法获得的轮廓相匹配(S304)。 通过使用纹理的运动补偿获得3D模型图像的运动参数,以进行3D头运动跟踪功能(S306)。 3D模型的特征点与2D图像的特征点相匹配,以计算初始运动参数。
-
-
-
-
-
-
-
-
-