-
公开(公告)号:KR102238794B1
公开(公告)日:2021-04-09
申请号:KR1020150041711A
申请日:2015-03-25
Applicant: 한국전자통신연구원
CPC classification number: H04N13/204 , G06T15/00 , H04N13/239 , H04N13/257
Abstract: 본 발명은 둘 이상의 촬영 장치를 조합하여 영상을 촬영하고 촬영된 영상을 이용하여 영상을 생성, 제공함으로써 촬영 장치의 촬영 속도를 증가시키는 방법 및 그 촬영 장치를 제공하는 것으로서, 본 발명의 일실시예에 따르면, RGB 영상 취득 장치와 뎁스 영상 취득 장치가 시간적으로 교대로 촬영을 하며 영상을 획득한다. 그리고 교대로 촬영함에 따라 번갈아가며 획득되는 제1 RGB 영상과 제1 뎁스 영상에 각각 대응하는 제2 뎁스 영상과 제2 RGB 영상을 합성하여 함께 출력함으로써 실제적인 촬영 속도를 두 배 증가시키는 방법을 제공한다.
-
-
-
公开(公告)号:KR1020160121379A
公开(公告)日:2016-10-19
申请号:KR1020160006966
申请日:2016-01-20
Applicant: 한국전자통신연구원
Abstract: 효율적으로고속촬영을구현하였으며, 스켈레톤정보추출로동작을세밀하게분석함으로써사용자에게보다정확하고다양한정보를제공할수 있는골프동작분석기술이개시된다. 이를위해, 본발명의일 실시예에따른골프동작분석방법은카메라부의영상센서에서사용자의동작에대한 2차원영상을획득하는단계; 2차원영상을획득하는것과시간적으로교대로카메라부의깊이센서에서 2차원영상의각 픽셀에대한깊이값을포함하는뎁스영상을획득하는단계; 소정시각에획득한기준 2차원영상혹은기준뎁스영상에대응하는대응뎁스영상혹은대응 2차원영상을생성하는촬영속도증가단계; 기준 2차원영상및 대응뎁스영상혹은기준뎁스영상및 대응 2차원영상을동작분석을위한출력데이터로출력하는단계; 출력데이터에대한분석을통해사용자의스켈레톤정보를추출하는단계; 및스켈레톤정보에기반하여사용자의동작을표시부에표시하는단계를포함하는것을특징으로한다.
-
公开(公告)号:KR1020130010278A
公开(公告)日:2013-01-28
申请号:KR1020110070972
申请日:2011-07-18
Applicant: 한국전자통신연구원
Abstract: PURPOSE: A control method of interactive content and a UI(User Interface) apparatus using the same are provided to supplies a realistic UI environment by controlling the interactive content based on skeleton information varied according to the operation of a user. CONSTITUTION: A display unit(10) displays interactive content controlled according to a command corresponding to the operation of a user. A sensor unit(20) detects body image information according to the operation of the user. An interface unit(30) detects skeleton information based on the body image information and to controls interactive content displayed on the display unit. [Reference numerals] (10) Display unit; (20) Sensor unit; (31) Image processing unit; (32) Analysis unit; (33) Control unit; (40) Portable terminal
Abstract translation: 目的:提供一种交互式内容的控制方法和使用该交互式内容的UI(用户界面)装置,通过基于根据用户的操作而变化的骨架信息来控制交互式内容来提供真实的UI环境。 构成:显示单元(10)显示根据与用户的操作相对应的命令来控制的交互内容。 传感器单元(20)根据用户的操作检测身体图像信息。 接口单元(30)基于身体图像信息检测骨架信息,并且控制显示在显示单元上的交互内容。 (附图标记)(10)显示单元; (20)传感器单元; (31)图像处理单元; (32)分析单位; (33)控制单元; (40)便携式终端
-
公开(公告)号:KR100940862B1
公开(公告)日:2010-02-09
申请号:KR1020070132851
申请日:2007-12-17
Applicant: 한국전자통신연구원
CPC classification number: G06T13/40 , G06K2009/3291 , G06T7/251 , G06T7/277 , G06T2207/10016 , G06T2207/30201
Abstract: 본 발명은 3차원 얼굴 애니메이션을 위한 헤드 모션 추적 방법에 관한 것이다. 즉, 본 발명에서는 한 대의 비디오 카메라로 획득된 영상으로부터 3차원 모델의 헤드 모션을 추적하기 위하여 얼굴 모델을 변형하는 얼굴 애니메이션 시스템을 구성하고 헤드 모션 추적 시스템을 통해서 획득된 모션 파라미터를 얼굴 애니메이션 시스템에 적용시킴으로써 영상에 맞는 자연스러운 얼굴 헤드 모션 애니메이션을 수행하는 것이다.
3차원, 애니메이션, 헤드 모션, 텍스쳐, 보정Abstract translation: 一种用于三维面部模型动画的头部运动跟踪方法,所述头部运动跟踪方法包括从由摄像机输入的图像获取拟合到三维模型的图像的初始面部运动; 创建三维模型的轮廓并投影轮廓; 将由三维模型创建的轮廓与通过统计特征点跟踪方案获取的轮廓相匹配; 并且通过使用纹理的运动校正来获得三维模型的图像的运动参数,以执行三维头部运动跟踪。 根据本发明,可以自动执行基于用摄像机获取的真实图像的自然三维面部模型动画,从而减少时间和成本。
-
公开(公告)号:KR100920225B1
公开(公告)日:2009-10-05
申请号:KR1020070132545
申请日:2007-12-17
Applicant: 한국전자통신연구원
Abstract: 본 발명은 영상을 이용한 3차원 그래픽 모델의 정확도 측정 기술에 관한 것으로, 실존 물체에 대한 3차원 모델 제작시 참조용으로 촬영한 참조 영상에 대한 카메라 보정을 통하여, 촬영당시의 카메라의 위치, 방향, 내부인자를 계산하여 카메라 파라미터를 생성하고, 참조 영상과, 실존 물체를 디지털화한 3차원 그래픽 모델 데이터의 대응관계를 바탕으로, 3차원 모델의 위치와 방향을 계산하며, 생성된 카메라 파라미터를 이용하여 3차원 그래픽 모델의 렌더링을 수행하여 합성영상을 생성하고, 참조영상과 합성 영상의 특징을 각각 추출하며, 추출된 각 영상의 특징 간 대응관계에 의거하여 거리 오차를 계산하는 것을 특징으로 한다. 본 발명에 의하면, 실재 존재하는 물체와 동일한 3차원 그래픽 모델을 제작함에 있어서, 실물을 촬영한 참조영상과 제작중인 3차원 모델을 비교하여 정확도 및 오차가 발생하는 부분을 디자이너에게 시각적으로 알려줌으로써, 모델링 작업의 효율성을 높이고, 더욱 정확한 3차원 모델을 제작할 수 있다.
참조 영상, 3차원 그래픽 모델, 정확도-
公开(公告)号:KR100896065B1
公开(公告)日:2009-05-07
申请号:KR1020070132668
申请日:2007-12-17
Applicant: 한국전자통신연구원
IPC: G06T13/40
CPC classification number: G06T13/40
Abstract: 본 발명은 3차원 얼굴 표정 애니메이션 생성 방법에 관한 것으로, 3차원 표준 얼굴 모델의 각 조인트들을 대표하는 대표 조인트를 설정하는 단계와, 비디오 스트림에서 얼굴 표정의 변화를 특징점 알고리즘으로 추적하는 단계와, 3차원 표준 얼굴 모델의 특징점의 변화량에 맞는 대표 조인트의 변환 계수를 적용하여 대표 조인트를 변환시켜 3차원 얼굴 표정 애니메이션을 생성하는 단계를 포함하며, 전문 모델러나 고가의 얼굴 모션 캡처 장비에 의존하지 않고, 한 대의 비디오 카메라로 촬영한 연기자의 얼굴 표정을 특징점 알고리즘으로 추적하여 기존의 3차원 표준 얼굴 모델에 조인트의 회전, 이동 변환을 통해 3차원 얼굴 표정 애니메이션을 생성하는 이점이 있다.
3차원 얼굴 표정, 특징점 추적, 얼굴 애니메이션-
-
公开(公告)号:KR101695638B1
公开(公告)日:2017-01-13
申请号:KR1020110070972
申请日:2011-07-18
Applicant: 한국전자통신연구원
CPC classification number: G06F3/011
Abstract: 본발명의목적은사용자의동작에따라인터렉티브컨텐츠를제어하기위한인터렉티브컨텐츠의제어방법및 이를이용한사용자인터페이스장치를제공하는것이다. 상술한본 발명의목적을달성하기위한본 발명의일 측면에따른인터렉티브컨텐츠의제어방법은, 사용자의골격정보를기반으로사용자의동작에따라인터렉티브컨텐츠를제어하기위한기준이되는기준길이를검출하는단계, 상기골격정보를기반으로비교길이를검출하는단계및 상기기준길이와상기비교길이를비교한결과에따라인터렉티브컨텐츠를제어하는단계를포함한다. 본발명에의하면, 사용자의동작에따라변화하는골격정보를기반으로인터렉티브컨텐츠를제어함으로써, 종래키보드, 마우스, 터치스크린등으로컨텐츠를제어하는것에비하여보다실감나는사용자인터페이스환경을제공할수 있는장점이있다.
Abstract translation: 提供了交互式内容控制方法和使用它的用户界面装置。 交互式内容控制方法基于用户的骨骼信息,基于骨骼信息检测比较长度,检测作为用于控制交互式内容的参考的参考长度,并且基于骨骼信息检测比较长度,并且控制 根据比较参考长度和比较长度的结果的交互式内容。 因此,本发明可以提供高度交互的用户界面环境。
-
-
-
-
-
-
-
-
-