-
公开(公告)号:KR1020140076736A
公开(公告)日:2014-06-23
申请号:KR1020120145081
申请日:2012-12-13
Applicant: 한국전자통신연구원
CPC classification number: G06K9/00342 , G06T5/006 , G06T7/251
Abstract: The present invention relates to a system for improving estimation of user′s body position by extracting the motion vector of the user′s body from a color image of a video received through a camera in a 3D user interactive processing apparatus. The system can provide a more accurate pointing function by acquiring accurate body coordinates of the user even when the user′s body moves suddenly. Additionally, an existing pointing area is limited to only a rectangle, but a pointing area of the present invention may be various forms of a closed curved surface.
Abstract translation: 本发明涉及一种用于通过在3D用户交互处理装置中通过相机接收的视频的彩色图像提取用户身体的运动矢量来改善用户身体位置的估计的系统。 即使用户的身体突然移动,系统也可以通过获取用户的准确身体坐标来提供更准确的指向功能。 此外,现有的指示区域仅限于矩形,但是本发明的指示区域可以是各种形式的封闭曲面。
-
公开(公告)号:KR101327320B1
公开(公告)日:2013-11-11
申请号:KR1020100087839
申请日:2010-09-08
Applicant: 한국전자통신연구원
Abstract: 본 발명은 영상의 전경 배경 분리 기술에 관한 것으로, 영상 처리 시스템 내의 전경 배경 분리 장치에서 배경 모델 생성에 따른 성능 지연을 방지하기 위해 초기 구동 시 생성된 배경 모델을 다음 구동 시 참조하거나, 대체하여 사용할 수 있도록 저장하여 관리하는 것을 특징으로 한다. 본 발명에 의하면, 영상 처리 시스템을 다수에 걸쳐 구동할 시에, 두 번째 구동부터는 첫번째 구동에서 생성된 배경 모델을 활용함으로써 초기 배경 모델 학습 과정을 거치지 않고 즉각적인 전경 및 배경 분리 작업을 수행할 수 있다. 따라서, 시스템 초기 구동 시간을 단축하고 및 기존의 초기 배경 모델 학습에 따른 동일한 배경 영상을 유지해야만 하는 불편함을 없앨 수 있다.
-
公开(公告)号:KR1020130052250A
公开(公告)日:2013-05-22
申请号:KR1020110117598
申请日:2011-11-11
Applicant: 한국전자통신연구원
CPC classification number: G06F3/011 , G06F3/017 , G06F3/0304 , G06F3/0346 , G06F3/167 , G06T7/00
Abstract: PURPOSE: An interactive user device and a method thereof are provided to omit an unnecessary feature information extraction and recognition process task, thereby reducing a load in the feature information extraction and recognition process task. CONSTITUTION: An extraction unit(200) extracts feature information based on a result which analyzes an image and a voice of a user. A recognition unit(300) recognizes an action and an operation which are recognized through a recognition process corresponding to the feature information and generates recognition information based on a recognition result. A selection unit(400) checks object recognition information of an object in current driving content. The selection unit extracts the feature information corresponding to the object recognition information or recognizes the action and the operation of the user. An application unit(500) provides interactive user environment which includes the content corresponding to the recognition information. [Reference numerals] (100) Input unit; (200) Extraction unit; (300) Recognition unit; (400) Selection unit; (500) Application unit
Abstract translation: 目的:提供交互式用户设备及其方法,以省略不必要的特征信息提取和识别处理任务,从而减少特征信息提取和识别处理任务中的负载。 构成:提取单元(200)基于分析用户的图像和语音的结果来提取特征信息。 识别单元(300)识别通过与特征信息相对应的识别处理识别的动作和操作,并且基于识别结果生成识别信息。 选择单元(400)检查当前驱动内容中的对象的对象识别信息。 选择单元提取与对象识别信息相对应的特征信息,或识别用户的动作和操作。 应用单元(500)提供包括与识别信息相对应的内容的交互式用户环境。 (附图标记)(100)输入单元; (200)提取单位; (300)识别单位; (400)选择单位; (500)申请单位
-
公开(公告)号:KR101849414B1
公开(公告)日:2018-04-16
申请号:KR1020120145081
申请日:2012-12-13
Applicant: 한국전자통신연구원
Abstract: 3D 사용자인터랙티브처리장치에있어서, 카메라를통해입력받은영상의칼라이미지로부터사용자신체의모션벡터를추출하여, 사용자의신체위치의추정도를높이기위한시스템이다. 사용자의신체가급작스럽게움직였을경우에도, 정확한사용자의신체좌표를구할수 있으므로, 더욱정확한포인팅기능을제공할수 있다. 또한기존의포인팅영역이직사각형에만국한되었던것에반해, 포인팅영역은폐곡면의다양한형태일수 있다.
-
公开(公告)号:KR1020130120202A
公开(公告)日:2013-11-04
申请号:KR1020120043281
申请日:2012-04-25
Applicant: 한국전자통신연구원
CPC classification number: H04N13/189 , G06T7/11 , G06T2207/10028
Abstract: The present invention discloses a device and method for extracting an image object in a 3-dimensional image system. The device for extracting the image object in the 3-dimensional image system according to the present invention comprises an image input unit which is inputted an image; a space setup unit which sets up a virtual space in which the image object is located from the inputted image; and an object output unit which outputs the image object located within the set virtual space from the inputted image. [Reference numerals] (110) Image input unit;(120) Space setting unit;(130) Object extracting unit;(140) Object correcting unit
Abstract translation: 本发明公开了一种用于在三维图像系统中提取图像对象的装置和方法。 根据本发明的用于提取三维图像系统中的图像对象的装置包括输入图像的图像输入单元; 空间设置单元,其从输入的图像建立图像对象所在的虚拟空间; 以及物体输出单元,其从输入的图像输出位于所设置的虚拟空间内的图像对象。 (110)图像输入单元;(120)空间设定单元;(130)对象提取单元;(140)对象校正单元
-
公开(公告)号:KR1020120025753A
公开(公告)日:2012-03-16
申请号:KR1020100087839
申请日:2010-09-08
Applicant: 한국전자통신연구원
CPC classification number: G06T7/194 , G06T1/60 , G06T2207/20
Abstract: PURPOSE: A foreground background separation apparatus of an image is provided to perform instant background separation work without initial background model learning process. CONSTITUTION: A background model generating unit(104) generates a background model in an input image. The background model is background area decision standards for background separation. A background model managing unit(108) selects the background model of the stored background models. A foreground and background dividing unit(122) divides the background by comparing the selected background model.
Abstract translation: 目的:提供图像的前景背景分离装置,用于执行即时背景分离工作,而无需初始背景模型学习过程。 构成:背景模型生成单元(104)在输入图像中生成背景模型。 背景模型是背景分离的背景区域决策标准。 背景模型管理单元(108)选择所存储的背景模型的背景模型。 前景和背景分割单元(122)通过比较所选择的背景模型来划分背景。
-
公开(公告)号:KR101373054B1
公开(公告)日:2014-03-11
申请号:KR1020110117598
申请日:2011-11-11
Applicant: 한국전자통신연구원
Abstract: 본 발명은 가변적인 콘텐츠에 대응하게 최적화된 사용자 인지 과정을 수행하는 사용자 인터랙티브 장치 및 그 방법에 관한 것이다. 사용자 인터랙티브 장치는 사용자의 영상 및 음성을 분석한 결과를 토대로 특징정보를 추출하는 추출부, 특징정보에 해당하는 인지 프로세스를 통해 인지하고자 하는 사용자의 행위 및 동작을 인지하고, 인지한 결과를 토대로 인지정보를 생성하는 인지부, 현재 구동 중인 콘텐츠에서 인지하고자 하는 대상의 대상 인지 정보를 파악하고, 대상 인지 정보에 대응하게 특징정보를 추출하거나 사용자의 행위 및 동작을 인지하도록 추출부와 인지부를 제어하는 선택부 및 인지정보에 대응하는 콘텐츠를 포함하는 인터랙티브 사용자 환경을 제공하는 응용부를 포함한다.
-
公开(公告)号:KR1020120052767A
公开(公告)日:2012-05-24
申请号:KR1020100114073
申请日:2010-11-16
Applicant: 한국전자통신연구원
IPC: G06T7/00
CPC classification number: G06K9/3233 , G06T7/11 , G06T7/194
Abstract: PURPOSE: An image separation apparatus and method thereof are provided to accurately acquire separation images by separating foreground images from background images in real time. CONSTITUTION: An image reception unit(110) receives input images. A background model creation unit(120) creates background models corresponding to the input images. A foreground image separation unit(130) determines foreground images for a reference pixel of all pixels by using the background model. The foreground image separation unit estimates the foreground images for reminded pixels of the pixels by using the result of a foreground image determination work.
Abstract translation: 目的:提供一种图像分离装置及其方法,用于通过将前景图像与背景图像实时分离来精确地获取分离图像。 构成:图像接收单元(110)接收输入图像。 背景模型创建单元(120)创建与输入图像对应的背景模型。 前景图像分离单元(130)通过使用背景模型确定所有像素的参考像素的前景图像。 前景图像分离单元通过使用前景图像确定工作的结果来估计像素的提醒像素的前景图像。
-
公开(公告)号:KR1020120045744A
公开(公告)日:2012-05-09
申请号:KR1020100107502
申请日:2010-11-01
Applicant: 한국전자통신연구원
CPC classification number: G09B7/00 , G06Q50/2057 , G06Q50/10 , G06T17/00
Abstract: 본발명은체험형학습콘텐츠의저작장치및 방법에있어서, 사용자의영상이투영되어학습을수행할수 있도록 3D 화면이나화면내에서의연결동작을등을정의하는체험형학습을위한 3D 콘텐츠를저작할수 있는저작장치를제공하고, 저작장치에서 3D 화면내학습을위한시나리오에따라스테이트, 액션존등을정의하고, 스테이트와액션존등이정의된지하철, 박물관등의다양한공간에사용자의 3D 화면을투영시켜사용자가가상으로해당공간에서의동작을체험할수 있도록함으로써실제공간에서와같은체험을경험할수 있어학습효과를높이도록한다.
Abstract translation: 目的:提供一种经验学习内容创作设备及其方法,以使用户能够通过创作三维内容来通过用户的运动投影的图像来学习运动。 规定:当要求经验学习内容创作时,显示创作内容的创作画面(S202)。 通过根据在创作画面中的内容的场景定制的输入信息来加载三维对象和二维对象来构建虚拟世界(S204)。 在虚拟世界中定义已建立运动被激活的动作区(S206)。 国家根据虚拟语言中的教育情景来定义(S208)。
-
公开(公告)号:KR1020120038616A
公开(公告)日:2012-04-24
申请号:KR1020100100157
申请日:2010-10-14
Applicant: 한국전자통신연구원
CPC classification number: G06T19/006 , G06K9/00442 , G06K9/00744
Abstract: PURPOSE: A method for providing tangible markerless AR(Augmented Reality) and a system thereof are provided to update a key frame and use the updated key frame to estimate a page posture. CONSTITUTION: An image collecting unit collects an image about learning subject(S310). A feature point extracting unit extracts a feature point from a collected image(S302). When a recognized page is wrong, a page recognizing unit recognizes the current page(S304,S306). A page tracking unit tracks a page posture(S308). When the posture is correctly estimated, a key frame updating unit updates a key frame according to a user environment(S310,S312).
Abstract translation: 目的:提供一种提供有形无标记AR(增强现实)及其系统的方法来更新关键帧并使用更新的关键帧来估计页面姿势。 构成:图像采集单元收集关于学习对象的图像(S310)。 特征点提取单元从收集的图像中提取特征点(S302)。 当识别页错误时,页识别单元识别当前页(S304,S306)。 页面跟踪单元跟踪页面姿势(S308)。 当正确估计姿势时,关键帧更新单元根据用户环境更新关键帧(S310,S312)。
-
-
-
-
-
-
-
-
-