뇌 신호에 기초한 시선 방향 예측 방법 및 장치
    12.
    发明授权
    뇌 신호에 기초한 시선 방향 예측 방법 및 장치 有权
    基于脑信号估计方向视点的方法及其设备

    公开(公告)号:KR101660634B1

    公开(公告)日:2016-09-27

    申请号:KR1020150039847

    申请日:2015-03-23

    Abstract: 뇌신호에기초한시선방향예측방법및 장치가개시된다. 일실시예의시선예측방법은기준방향들각각에대한안구의움직임에따른제1 뇌신호들에기초하여확장방향들에대해연속적인튜닝커브를생성하는단계와, 임의의방향에대한안구움직임에따른제2 뇌신호를수신하는단계와, 상기튜닝커브에기초하여상기확장방향들중에상기제2 뇌신호에대응하는방향을결정하는단계를포함한다.

    Abstract translation: 公开了一种基于脑信号的注视方向估计方法及其装置。 根据实施例,注视估计方法包括以下步骤:根据眼球相对于每个参考方向的运动,基于第一脑信号产生关于延伸方向的连续调谐曲线; 根据眼球相对于任意方向的运动接收第二脑信号; 并且基于调谐曲线确定在延伸方向上对应于第二脑信号的方向。

    공압을 이용한 소리장치
    14.
    发明授权
    공압을 이용한 소리장치 失效
    声音设备

    公开(公告)号:KR101188238B1

    公开(公告)日:2012-10-08

    申请号:KR1020110080001

    申请日:2011-08-11

    CPC classification number: H04R1/42 H04R1/02 H04R2201/02 H04R2209/022

    Abstract: PURPOSE: A sound device using air pressure is provided to provide a speaker unit to generate sound using an actuator. CONSTITUTION: A driving unit(100) moves in one direction. A unit(200) changes a cross section area for air discharge corresponding to motion of the driving unit. A container(300) generates sound by discharging internal air to the outside depending on the cross section area for air discharge. The driving unit comprises a permanent magnet and a coil. The driving unit vertically moves in one direction according to a direction of force applied to the coil. A cross section of the unit is formed in a letter L shape. One side of the letter L shape changes the cross section area for air discharge. The inside of the container maintains relatively high pressure against an external environment.

    Abstract translation: 目的:提供使用空气压力的声音装置,以提供扬声器单元,以使用致动器产生声音。 构成:驱动单元(100)沿一个方向移动。 单元(200)根据驱动单元的运动改变用于排气的横截面面积。 容器(300)根据用于排气的横截面积将内部空气排出到外部来产生声音。 驱动单元包括永磁体和线圈。 驱动单元根据施加到线圈的力的方向在一个方向上垂直移动。 单元的横截面形成为字母L形。 字母L形的一侧改变了排气的横截面积。 容器内部对外部环境保持较高的压力。

    관상동맥 혈관 고속 스캐닝 장치 및 방법

    公开(公告)号:KR101731728B1

    公开(公告)日:2017-05-02

    申请号:KR1020150159294

    申请日:2015-11-13

    Abstract: 살아있는사람의관상동맥혈관을고속으로스캐닝하는장치가제공된다. 상기장치는: 제1 대상체의혈관내에삽입되어회전하면서혈관벽을이미징하는이미징카테터, 및상기이미징카테터의한 측에체결되어광간섭단층촬영(OCT) 장치로부터조사된빛을상기이미징카테터로전달하고상기이미징카테터를회전시키는회전접합부를포함할수 있다.

    웨어러블 물체 형상 스캐닝 장치
    18.
    发明公开
    웨어러블 물체 형상 스캐닝 장치 审中-实审
    用于测量对象形状的可擦写扫描装置

    公开(公告)号:KR1020160074316A

    公开(公告)日:2016-06-28

    申请号:KR1020140183511

    申请日:2014-12-18

    Abstract: 본발명은사용자손에착용가능한형태로구현되며, 사용자가스캐닝대상물체의표면을스캐닝함에따라변화되는손 위치값과손 모양을기반으로스캐닝대상물체의형상을 3차원적으로파악할수 있도록하는새로운방식의웨어러블물체형상스캐닝장치에관한것으로, 상기웨어러블물체형상스캐닝장치는사용자손에착용가능한형태로구현되는몸체; 상기몸체에부착되어, 사용자가스캐닝대상물체의표면을스캐닝함에따라변화되는손 정보를센싱하는센싱부; 및상기센싱부를통해센싱된손 정보를수집및 분석하여상기스캐너대상물체의 3차원형상을산출하는프로세서;를포함할수 있다.

    Abstract translation: 本发明涉及一种用于扫描可佩戴在使用者的手上的物体形状的新颖的可佩戴装置,并且基于手位置值和手形改变三维地获得待扫描物体的形状 因为用户扫描要扫描的对象的表面。 用于扫描物体形状的可佩戴装置包括:可以佩戴在使用者的手上的主体; 感测单元,其附接到身体以感测当用户扫描要扫描的对象的表面时改变的手信息; 以及处理器,用于收集和分析由感测单元感测的手信息,以计算待扫描对象的三维形状。

    프로젝터에 기반한 양방향 상호작용 사용자 인터페이싱 장치
    19.
    发明公开
    프로젝터에 기반한 양방향 상호작용 사용자 인터페이싱 장치 审中-实审
    基于投影机的双向交互用户界面

    公开(公告)号:KR1020160045945A

    公开(公告)日:2016-04-28

    申请号:KR1020140139144

    申请日:2014-10-15

    CPC classification number: G06F3/014 G06F3/017

    Abstract: 본발명은사용자움직임을무구속하면서사용자손 움직임을통해프로젝터에의해투사되는영상에대응되는각종제어값을다양하게획득할수 있도록하는새로운방식의프로젝터에기반한양방향상호작용사용자인터페이싱장치에관한것으로, 스크린에소정의영상을투사하는프로젝터; 사용자손에착용되며, 손제스처를센싱및 통보하는휨센서와손 위치를알려주기위한광을발생하는광원을구비하는장갑; 상기스크린에투사된영상을촬영및 출력하는카메라; 상기장갑에의해발생된광을센싱하여손 위치값을출력하는광 센싱장치; 및상기카메라를통해촬영된영상을수신및 분석하여상기촬영영상내적어도하나의객체를인식하고, 상기손 위치값과상기손 제스처를기반으로상기객체에대한제어값을산출및 출력하는사용자단말을포함할수 있다.

    Abstract translation: 本发明涉及一种基于新型投影仪的双向交互式用户界面装置,其能够通过用户的手动运动不同地获取与投影仪投射的图像相对应的各种控制值,而不会限制用户的动作。 双向交互式用户界面装置包括:投影仪,其在屏幕上投影预定图像; 佩戴在使用者的手上的手套,并且包括感测并通知手势的弯曲传感器,以及用于产生用于通知手的位置的光的光源; 拍摄并输出投影在屏幕上的图像的相机; 光学感测装置,其感测由手套产生的光以输出手位置值; 以及用户终端,其接收并分析由照相机拍摄的图像以识别所拍摄的图像中的至少一个对象,并且基于手位置值和手势来计算并输出每个对象的控制值。

    자율 시스템의 자기 인식 방법
    20.
    发明授权
    자율 시스템의 자기 인식 방법 有权
    自动识别自动识别方法

    公开(公告)号:KR101261797B1

    公开(公告)日:2013-05-07

    申请号:KR1020110115430

    申请日:2011-11-07

    CPC classification number: G05D1/0214 G06T7/11 G06T7/20 G06T2207/10016

    Abstract: PURPOSE: A self-recognition method of an autonomous system is provided to implement accuracy by finding a boundary between a robot body and a background. CONSTITUTION: A visual input of an optical flow shape is obtained(S1). A velocity vector is extracted from an optical flow(S3). A vector to estimate the movement of a system body is extracted. A local feature set is extracted by selecting local features. A body is extracted from the local feature set(S4). [Reference numerals] (S1) Obtain a visual input of an optical flow shape expressed as a vector group of a local picture; (S2) Predict a joint position by using vectors and a free angle of a robot joint corresponding to the vectors; (S3) Extract a velocity vector group matched with prediction values for all frames of video stream; (S4) Extract a main body from the velocity vector group; (S5) Apply a segment algorithm

    Abstract translation: 目的:提供一种自主系统的自我识别方法,通过发现机器人身体与背景之间的边界来实现准确性。 构成:获得光流形状的视觉输入(S1)。 从光流中提取速度矢量(S3)。 提取用于估计系统体的移动的向量。 通过选择本地特征来提取局部特征集。 从本地特征集提取一个身体(S4)。 [参考数字](S1)获取表示为局部图像的矢量组的光流形状的视觉输入; (S2)通过使用与向量对应的机器人关节的向量和自由角度来预测关节位置; (S3)提取与视频流的所有帧匹配的预测值的速度矢量组; (S4)从速度矢量组提取主体; (S5)应用段算法

Patent Agency Ranking