사용자의 지시 위치 추정 장치 및 방법

    公开(公告)号:KR101892093B1

    公开(公告)日:2018-08-28

    申请号:KR1020160148286

    申请日:2016-11-08

    Abstract: 사용자의지시위치추정장치및 방법이개시된다. 본발명에따른사용자의지시위치추정방법은, 몰입형디스플레이의스크린을시청하는한 명이상의사용자가포함된다시점깊이영상을입력받는단계, 입력받은상기다시점깊이영상을분석하여, 상기사용자의머리영역및 손영역을검출하는단계, 상기머리영역의 3차원좌표및 상기손 영역의 3차원좌표를기반으로, 상기사용자의시선추적선을생성하는단계, 그리고상기시선추적선을이용하여, 상기스크린상에서상기사용자의시선에상응하는지시위치를예측하는단계를포함한다.

    하이브리드 센서를 이용한 착용형 디스플레이 장치의 자세 예측 장치
    3.
    发明公开
    하이브리드 센서를 이용한 착용형 디스플레이 장치의 자세 예측 장치 审中-实审
    用于使用混合传感器估计可穿戴显示设备的装置

    公开(公告)号:KR1020150081975A

    公开(公告)日:2015-07-15

    申请号:KR1020140002017

    申请日:2014-01-07

    CPC classification number: G06T7/337 H04N13/128 H04N13/246

    Abstract: 본발명은하이브리드센서를이용하여착용형디스플레이장치의자세를예측하는기술에관한것이다. 본발명의일 측면에따르면, 스테레오영상을분석하여하나의좌표계로변환된스테레오카메라보정파라미터를산출하는스테레오카메라/센서보정부, 상기스테레오카메라보정파라미터를이용하여상기스테레오영상으로부터삼차원특징맵을생성하는삼차원특징맵생성부, 상기삼차원특징맵을이용하여상기스테레오영상으로부터스테레오카메라의포즈를구하는영상기반포즈계산부, 상기스테레오카메라의포즈를분석하고센서값을이용하여최적화하는영상/센서기반포즈최적화부, 및상기삼차원특징맵과새로운포즈에대해생성된삼차원특징맵을정합하여업데이트하는삼차원특징맵업데이트부를포함하되, 상기센서는자이로센서, 가속도센서, 지자기센서중 적어도하나를포함하는하이브리드센서를이용한착용형디스플레이장치의자세예측장치가제공된다.

    Abstract translation: 本发明涉及一种使用混合传感器估计可穿戴式显示装置姿势的技术。 根据本发明的一个方面,提供了一种用于估计使用混合传感器的显示装置的姿态的装置,包括立体摄像机/传感器补偿单元,其分析立体图像以计算在一个坐标系中变换的立体相机补偿参数 ; 三维特征图生成单元,其使用立体摄像机补偿参数从立体图像生成三维特征图; 基于图像的姿势计算单元使用三维特征图从立体图像获取立体摄像机的姿态; 基于图像/传感器的姿态优化单元分析立体相机的姿态并使用传感器值优化姿态; 以及三维特征图更新单元,其使得所述三维特征图与针对所述新姿势生成的三维特征图兼容,并且更新所述三维特征图,其中所述传感器包括陀螺仪传感器,加速度传感器和 地磁传感器。

    가상 공간 멀티 터치 인터랙션 장치 및 방법
    4.
    发明公开
    가상 공간 멀티 터치 인터랙션 장치 및 방법 审中-实审
    虚拟多点触摸交互设备和方法

    公开(公告)号:KR1020150040580A

    公开(公告)日:2015-04-15

    申请号:KR1020130119271

    申请日:2013-10-07

    Abstract: 입체영상제공이가능한착용형디스플레이를통해가시화되는가상물체와사용자의손가락이터치하는순간을인식하고, 사용자에게시각적상호작용과동시에촉각피드백을함께제공할수 있는가상공간멀티터치인터랙션장치및 방법을제시한다. 제시된장치는가상영상을출력하는가시화부, 가시화부를통해가시화되는가상영상에대한사용자의손가락끝점검출및 움직임검출을통해멀티터치를인식하는가상공간멀티터치인식부, 및가상공간멀티터치인식부에의해인식된사용자의멀티터치에상응하는터치피드백을제공하는터치피드백제공부를포함한다.

    Abstract translation: 建议的是一种虚拟空间多点触摸交互设备,其能够识别用户的手指触摸通过可穿戴显示器可视化的虚拟对象的时刻,该可穿戴显示器可以提供立体图像并且为用户提供触摸反馈以及视觉交互,并且 方法。 所提出的装置包括:输出虚像的可视化单元; 虚拟空间多点触摸识别单元,其通过检测指尖和用于可视化单元可视化的虚拟图像的用户的移动来识别多点触摸; 以及触摸反馈提供单元,其提供由虚拟空间多点触摸识别单元识别的用户对应的多个触摸的触摸反馈。

    카메라 트래킹 시스템, 트래킹 방법 및 이를 이용한 실사영상 합성 시스템
    5.
    发明公开
    카메라 트래킹 시스템, 트래킹 방법 및 이를 이용한 실사영상 합성 시스템 有权
    摄像机跟踪系统和方法及使用该摄像机的实时视频组合系统

    公开(公告)号:KR1020110043967A

    公开(公告)日:2011-04-28

    申请号:KR1020090100738

    申请日:2009-10-22

    CPC classification number: H04N7/181

    Abstract: PURPOSE: A live video compositing system using a camera tracking method is provided to continue the disconnected trace of a dynamically moving object using a sub image. CONSTITUTION: A main camera(110) takes a photograph of a main picture used in a synthesis. A sub camera(120) attached to the main camera takes a photograph of a sub picture. A tracking unit(150) estimates the movement of the sub camera by tracing the feature point trajectory of the sub picture. A motion converting unit(160) converts the movement of the sub camera into the movement of a main camera considering the location of the sub camera and the main camera. A structuring unit(170) restores the feature point trajectory to a 3D space by tracing the feature point trajectory of the main picture. An optimization unit(180) optimizes the movement of the converted main camera by regulating variables of the sub camera movement, the main camera movement, and the 3D coordinates of the feature point trajectory of the sub image.

    Abstract translation: 目的:提供使用相机跟踪方法的实时视频合成系统,以使用子图像继续动态移动的对象的断开跟踪。 构成:主摄像机(110)拍摄合成中使用的主画面的照片。 安装在主摄像机上的副照相机(120)拍摄副图像的照片。 跟踪单元(150)通过跟踪子图像的特征点轨迹来估计子相机的移动。 考虑到副摄像机和主摄像机的位置,运动转换单元(160)将副摄像机的运动转换为主摄像机的运动。 结构单元(170)通过跟踪主图像的特征点轨迹将特征点轨迹恢复到3D空间。 优化单元(180)通过调整副图像的子摄像机运动,主摄像机运动和特征点轨迹的3D坐标的变量来优化转换的主摄像机的运动。

    카메라간 영상 보정 장치 및 방법
    6.
    发明公开
    카메라간 영상 보정 장치 및 방법 有权
    用于校准摄像机之间的图像的装置和方法

    公开(公告)号:KR1020100108021A

    公开(公告)日:2010-10-06

    申请号:KR1020090026454

    申请日:2009-03-27

    CPC classification number: H04N5/222 G06T7/80 H04N5/2224

    Abstract: PURPOSE: An apparatus and a method for compensating an image between a motion capture camera and a video camera are provided to accurately compensate the video camera by synthesizing a high resource video and 3D motion capture data based on 2D data of a motion marker in the high resource video. CONSTITUTION: A detection unit(200) detects a motion marker from a motion capture camera and a video camera. A 3D(Dimensional) location compensation unit(202) compensates 3D location data of the motion marker photographing the motion capture camera and stores 3D camera calibration data. A 2D location tracking unit(204) traces 2D location data of the marker which the video camera takes a photograph. A compensation unit converts 3D location of the motion marker into the coordinate of the video camera.

    Abstract translation: 目的:提供用于补偿运动捕捉相机和摄像机之间的图像的装置和方法,以通过基于高运动标记的2D数据合成高资源视频和3D运动捕捉数据来精确地补偿摄像机 资源视频。 构成:检测单元(200)从运动捕捉摄像机和摄像机检测运动标记。 3D(尺寸)位置补偿单元(202)补偿拍摄运动捕捉相机的运动标记的3D位置数据,并存储3D相机校准数据。 2D位置跟踪单元(204)跟踪摄像机拍摄照片的标记的2D位置数据。 补偿单元将运动标记的3D位置转换为摄像机的坐标。

    실시간 카메라 트래킹을 이용한 실사 영상 합성 시스템 및 그 방법
    7.
    发明公开
    실시간 카메라 트래킹을 이용한 실사 영상 합성 시스템 및 그 방법 有权
    实时相机跟踪和实时视频组合系统及其方法

    公开(公告)号:KR1020090064967A

    公开(公告)日:2009-06-22

    申请号:KR1020070132360

    申请日:2007-12-17

    Abstract: A real-time camera tracking and realistic image synthesis system and a method thereof are provided to synthesize a road guide and peripheral information with a realistic image in real time in a car navigator, and to output the synthesized image, thereby ensuring real-time effect and accuracy. A feature point prediction and selection unit(19) selects only feature points rom which a 3D position is restored, among feature points for an image. A camera movement prediction unit(13) predicts camera movement information by using the selected feature points. A matching unit(21) compares the current location of a camera with a background geometry model of a peripheral space, and matches the compared information. A synthesizer(25) synthesizes the predicted camera movement information with a realistic image of the peripheral information, and outputs the synthesized image.

    Abstract translation: 提供实时相机跟踪和逼真的图像合成系统及其方法,以在汽车导航器中实时地将道路指南和外部信息与实际图像合成,并输出合成图像,从而确保实时效果 和准确性。 特征点预测和选择单元(19)在图像的特征点中仅选择3D位置被恢复的特征点ROM。 相机移动预测单元(13)通过使用所选择的特征点来预测相机移动信息。 匹配单元(21)将相机的当前位置与外围空间的背景几何模型进行比较,并且匹配所比较的信息。 合成器(25)将预测的摄像机运动信息与外围信息的真实图像合成,并输出合成图像。

    원격 현장감 생성 장치 및 방법
    8.
    发明公开
    원격 현장감 생성 장치 및 방법 审中-实审
    用于产生电视的装置和方法

    公开(公告)号:KR1020150058848A

    公开(公告)日:2015-05-29

    申请号:KR1020130142125

    申请日:2013-11-21

    Abstract: 원격지의이동형제어장치를통해획득한원격영상, 촉각및 4D 효과정보에기반하여사용자가광시야각 HMD(Head Mounted Display)를착용하고, 가상으로원격존재감을느끼기위한방법에관한것으로서향후가상여행, 가상관람및 가상체험등을서비스할수 있는원격현장감생성장치및 방법이개시된다. 본발명에따른원격현장감생성장치는원격지에위치한로봇에장착되어상기로봇의시야에대응하는시각정보를센싱하는시각정보센싱부, 로봇에장착되어상기원격지의촉각정보를센싱하는촉각정보센싱부, 로봇에장착되어상기원격지의물리적인환경에대한정보인환경정보를센싱하는환경정보센싱부원격지와이격된공간에위치한사용자가상기시각정보, 촉각정보및 환경정보에대응하여움직인동작에대한움직임정보를수신하는로봇통신부및 움직임정보를기반으로상기로봇을구동하는로봇제어부를포함한다.

    Abstract translation: 公开了一种用于产生远程呈现的装置和方法,其中用户佩戴具有宽视角的头戴式显示器,并且基于远程图像,触觉感觉信息和4D效果信息在虚拟情境中感觉到远程呈现。 该设备将能够提供虚拟旅行,虚拟旅游和虚拟体验的服务。 该装置包括:视觉感知信息感测单元,其安装在位于远程位置的机器人上,并感测与机器人的视觉对应的视觉信息; 一种安装在机器人上并感测远程场所的触觉信息的触觉感知单元; 环境信息单元,其安装在机器人上并感测关于远程场所的物理环境的环境信息; 接收关于运动的运动信息的机器人通信单元,所述运动信息存在于与所述远程场所分离的位置中的用户对应于所述视觉感觉信息,所述触觉感觉信息和所述环境信息; 以及基于运动信息驱动机器人的机器人控制单元。

    증강현실영상 기반의 관광 가이드 장치
    9.
    发明公开
    증강현실영상 기반의 관광 가이드 장치 审中-实审
    基于真实成像的观察指南装置

    公开(公告)号:KR1020140080720A

    公开(公告)日:2014-07-01

    申请号:KR1020120146230

    申请日:2012-12-14

    CPC classification number: G02B27/026 G06F3/016 G06Q50/26 G06T19/006

    Abstract: The present invention provides an augmented reality imaging-based sightseeing guide apparatus which easily matches the augmented reality image visualized on the reality of outdoor environment. An embodiment of the apparatus includes a camera part outputting video data corresponding to the reality of an arbitrary sightseeing place; a display part displaying the augmented reality image visualized on the reality of the sightseeing place; and a controller detecting a natural marker in the reality of the sightseeing place on the basis of the image data and controlling the display part to visualize the augmented reality image at the location of the natural marker.

    Abstract translation: 本发明提供了一种基于实景成像的观光指导装置,其容易地匹配在室外环境的实际中可视化的增强现实图像。 该装置的实施例包括:相机部分,输出与任意观光场所的实际相对应的视频数据; 显示根据观光地的现实可视化的增强现实图像的显示部分; 以及控制器,其基于图像数据检测观光场所的现实中的自然标记,并且控制显示部分以使自然标记的位置处的增强现实图像可视化。

    카메라 트래킹 시스템, 트래킹 방법 및 이를 이용한 실사영상 합성 시스템
    10.
    发明授权
    카메라 트래킹 시스템, 트래킹 방법 및 이를 이용한 실사영상 합성 시스템 有权
    相机跟踪的系统和方法以及使用相同的实时视频合成系统

    公开(公告)号:KR101266362B1

    公开(公告)日:2013-05-23

    申请号:KR1020090100738

    申请日:2009-10-22

    CPC classification number: H04N7/181

    Abstract: 본발명은카메라트래킹시스템, 트래킹방법및 이를이용한실사영상합성시스템에 관한것으로, 보다상세하게는주카메라에고정된보조카메라를이용하여주카메라를트래킹함으로써, 움직이는전경객체로인하여정적배경의대부분이가려지는역동적인상황에서도주카메라의움직임을안정적으로계산하는시스템과방법및 이를이용한실사영상합성시스템에관한것이다. 본발명에따르면영상안에서역동적으로움직이는전경객체로인해끊어진특징점궤적을연결할수 있다. 따라서, 전경객체가역동적으로움직여배경을가리는동적인영상의경우에도보다정확하고빠른카메라의트래킹이가능하고, 보다실감나는실사영상을합성할수 있다.

Patent Agency Ranking