증강현실을 위한 실시간 마커리스 3차원 객체추적 시스템 및 그 방법
    1.
    发明申请
    증강현실을 위한 실시간 마커리스 3차원 객체추적 시스템 및 그 방법 审中-公开
    实时标记三维对象跟踪系统,用于实现现实及其方法

    公开(公告)号:WO2011149159A1

    公开(公告)日:2011-12-01

    申请号:PCT/KR2010/007491

    申请日:2010-10-28

    CPC classification number: G06K9/4642 G06T7/246

    Abstract: 증강현실을 위한 실시간 마커리스 3차원 객체추적 시스템 및 그 방법이 개시된다. 본 발명의 실시예에 따른 증강현실을 위한 실시간 마커리스 3차원 객체추적 시스템은, 객체의 영상으로부터 특징점을 추출하는 특징점 추출부; 추출된 특징점을 기설정된 3차원의 위치정보에 대응하는 참조영상의 특징점과 정합하는 정합부; 및 정합부에 의해 정합된 결과에 기초하여 회전 및 이동정보를 추적하는 회전 및 이동정보 추적부를 포함하는 것을 특징으로 한다.

    Abstract translation: 公开了一种用于增强现实的实时无标记三维物体跟踪系统及其方法。 根据本发明的实施例,用于增强现实的实时无标记三维物体跟踪系统包括:特征点提取单元,从对象图像中提取特征点; 匹配单元,其将提取的特征点与对应于预设的三维位置信息的参考图像的特征点相匹配; 旋转和移动信息跟踪单元,其基于匹配单元的匹配结果跟踪旋转和移动信息。

    증강현실을 위한 실시간 마커리스 3차원 객체추적 시스템 및 그 방법
    2.
    发明公开
    증강현실을 위한 실시간 마커리스 3차원 객체추적 시스템 및 그 방법 无效
    用于实现现实的实时标记3D对象跟踪系统及其方法

    公开(公告)号:KR1020110130309A

    公开(公告)日:2011-12-05

    申请号:KR1020100049891

    申请日:2010-05-27

    CPC classification number: G06K9/4642 G06T7/246

    Abstract: PURPOSE: A real time markerless 3D object tracking system for the augmented reality is provided to extract a feature point and express the object through the extracted 3D object feature point. CONSTITUTION: A feature point extraction unit(110) extracts a feature point from an object image. A descriptor generator(120) creates expression factor of a feature vector based on the extracted feature point. A matching unit(140) matches the extracted feature point with the feature point of a reference image corresponding to a preset 3D location information. A rotation and moving information tracking unit(150) traces the rotation and moving information based on the matched result.

    Abstract translation: 目的:提供用于增强现实的实时无标记3D对象跟踪系统,以提取特征点,并通过提取的3D对象特征点来表达对象。 构成:特征点提取单元(110)从对象图像中提取特征点。 描述符生成器(120)基于所提取的特征点创建特征向量的表达因子。 匹配单元(140)将提取的特征点与对应于预设3D位置信息的参考图像的特征点进行匹配。 旋转和移动信息跟踪单元(150)基于匹配的结果跟踪旋转和移动信息。

    오디오 및 비디오 정보를 이용한 등장인물 기반 비디오요약 장치 및 그 방법
    4.
    发明授权
    오디오 및 비디오 정보를 이용한 등장인물 기반 비디오요약 장치 및 그 방법 失效
    通过音频和视频内容分析基于字符视频概述的装置和方法

    公开(公告)号:KR100792016B1

    公开(公告)日:2008-01-04

    申请号:KR1020060069845

    申请日:2006-07-25

    Abstract: A device and a method for summarizing a video on the basis of a character are provided to provide a video summarization by character using audio and video information. A device for summarizing a video on the basis of a character using audio and video information comprises a speaker detecting unit(100), a face sensing unit(200), and a video summarizing unit(300). The speaker detecting unit detects a main speaker by detecting a speaker by using auditory information and provides summarization of a specific character unit. The face sensing unit senses a key frame which shows a specific character by sensing a face portion using visual information. The video summarizing unit performs a video summarizing operation based on the character by using a video summarization result based on the speaker, and a face sensing result using the visual information at the face sensing unit. A method thereof includes a step of detecting the main speaker by sensing the speaker by using the auditory information and providing the summarization of the specific character unit; a step of detecting the key frame showing the specific character by detecting the face portion using the visual information; and a step of summarizing the video based on the character by using the video summarizing result and the face sensing result.

    Abstract translation: 提供用于基于字符来汇总视频的设备和方法,以通过使用音频和视频信息的字符提供视频摘要。 基于使用音频和视频信息的字符来总结视频的设备包括扬声器检测单元(100),人脸感测单元(200)和视频摘录单元(300)。 扬声器检测单元通过使用听觉信息检测扬声器来检测主扬声器,并提供特定字符单元的概括。 面部感测单元通过使用视觉信息感测脸部部分来感测显示特定角色的关键帧。 视频总结单元通过使用基于扬声器的视频摘要结果和使用面部感测单元处的视觉信息的人脸感测结果,基于该角色执行视频总结操作。 其方法包括通过使用听觉信息感测扬声器并提供特定字符单元的总结来检测主扬声器的步骤; 通过使用所述视觉信息检测所述面部部分来检测示出所述特定字符的关键帧的步骤; 以及通过使用视频摘要结果和面部感测结果来基于角色来总结视频的步骤。

    항공 영상 분류 장치 및 그 방법
    7.
    发明公开
    항공 영상 분류 장치 및 그 방법 有权
    航空图像分类装置及其方法

    公开(公告)号:KR1020170101723A

    公开(公告)日:2017-09-06

    申请号:KR1020160024672

    申请日:2016-02-29

    Abstract: 본발명은항공영상분류장치및 그방법에관한것으로서, 콘볼루션신경망(convolutional neural network) 기반으로영상으로부터특징을추출하는특징추출부, 다층퍼셉트론(Multilayer Perceptron)과로지스틱회귀(Logistic Regression) 알고리즘을이용하여상기추출된특징을분류하는분류부를포함한다.

    Abstract translation: 本发明使用的空间像分类装置和涉及一种方法,卷积神经网络(卷积神经网络),其基于提取的特征从图像特征提取单元,多层感知器(多层感知器)配有逻辑回归(逻辑回归)算法 还有一个用于分类提取的特征的分类器。

    가중 탐색 영역을 이용한 움직임 추적 및 아바타 제어 방법
    8.
    发明授权
    가중 탐색 영역을 이용한 움직임 추적 및 아바타 제어 방법 有权
    使用加权搜索窗口的运动跟踪和控制方法的方法

    公开(公告)号:KR101320922B1

    公开(公告)日:2013-10-21

    申请号:KR1020120064331

    申请日:2012-06-15

    Abstract: PURPOSE: Movement tracking and avatar control methods using a weighting detection area are provided to steadily perform tracking without block of a multi-tube seam area. CONSTITUTION: A calculation device sets up two or more regions of interest (ROI) (S520). The calculation device stores the set ROIs in a storage unit. The calculation device extracts feature point values which are pre-set for the ROIs (S530). The calculation device calculates a central point of the feature point values by adding a weighted value to a previous ROI corresponding to the ROIs of a previous frame (S540). The calculation device changes the center of the ROI into the central point of the feature point values (S570). [Reference numerals] (AA) Start; (BB) End; (S510) Input image; (S520) Set region of interest; (S530) Extract feature point value; (S540) Calculate central point; (S5550) Change center of region of interest; (S560) Gather change of center; (S570) Change posture of avatar

    Abstract translation: 目的:提供使用加权检测区域的运动跟踪和头像控制方法,以稳定地执行跟踪,而不需要多管接缝区域。 构成:计算装置设置两个或更多个感兴趣区域(ROI)(S520)。 计算装置将设置的ROI存储在存储单元中。 计算装置提取为ROI设定的特征点值(S530)。 计算装置通过将加权值加到与先前帧的ROI相对应的先前ROI中来计算特征点值的中心点(S540)。 计算装置将ROI的中心改变为特征点值的中心点(S570)。 (附图标记)(AA)开始; (BB)结束; (S510)输入图像; (S520)设置感兴趣的区域; (S530)提取特征点值; (S540)计算中心点; (S5550)改变感兴趣区域的中心; (S560)收集中心的变化; (S570)改变头像的姿势

Patent Agency Ranking