공감각적 행위기반 인터페이스 제어방법
    11.
    发明授权
    공감각적 행위기반 인터페이스 제어방법 有权
    空间有形人类活动接口系统

    公开(公告)号:KR101291383B1

    公开(公告)日:2013-07-30

    申请号:KR1020110057286

    申请日:2011-06-14

    Inventor: 이응주 옥수열

    Abstract: 본 발명은 학습자의 자율성을 확보하고 공감각적인 동작 및 행위를 촉진하고 아동의 창의력과 의사소통의 능력을 증진하기 위해서 아동용 게임 콘텐츠와 인터랙션하게 연동하도록 기존의 키보드와 마우스 같은 제안된 입력 장치가 아닌 공감각적이고 직관적으로 인터랙션을 할 수 있도록 적외선 Depth카메라 장치를 활용한 내추럴 유저 인터페이스(Natural User Interface)을 이용한 공감각적 행위기반 인터페이스 제어방법에 관한 것이다.
    본 발명은, 사용자의 동작을 인식하기 위한 동작인식 수단 및 전자 주사위를 포함하여 컴퓨터상에서 구동되는 공감각적 행위기반 인터페이스 시스템에서 사용자의 입력사항을 처리하기 위한 제어방법에 있어서, 사용자 제스처(gesture)에 의한 입력신호 또는 외부장치로 구성되는 전자 주사위에 의한 입력신호를 전송받기 위한 입력 대기단계와; 다양한 제스처 정보를 가지는 제스처DB를 포함하며, 상기 동작인식 수단으로부터 전송받은 제스처를 상기 제스처DB에 기록된 일 이벤트로 대응시키는 제스처 전처리 단계와; 전자 주사위에 의해 발신되는 주사위 눈의 값(value)을 이벤트화하는 주사위 값 입력단계와; 상기 제스처 전처리 단계 및 주사위 값 입력단계로부터 전송받은 이벤트를 컴퓨터 모니터상 출력되는 입력대기 상태인 스크린으로 전달하고, 해당 스크린은 스크린별로 미리 기록된 플로우 라우터에 의해 상기 전송받은 이벤트를 분기시켜 정해진 명령을 실행하는 명령단계;를 포함하는 것을 특징으로 하는 공감각적 행위기반 인터페이스 제어방법을 제공한다.

    차세대 통합 디스플레이 장치용 손동작 인식 기반의 콘텐츠 제어 방법
    12.
    发明授权
    차세대 통합 디스플레이 장치용 손동작 인식 기반의 콘텐츠 제어 방법 有权
    一种用于下一代综合显示装置的内容控制方法

    公开(公告)号:KR101130063B1

    公开(公告)日:2012-03-28

    申请号:KR1020100040953

    申请日:2010-04-30

    Inventor: 이응주

    Abstract: 본 발명은 차세대 디스플레이 장치나 IPTV에 동작 인식용 카메라를 장착하여 입력된 사용자들의 손동작 특징을 나타내는 영상 정보를 영상처리 기술 및 센서 신호처리 기술에 의해 추출하고, 입력된 영상을 분류 및 분석하여 얻어진 정보를 바탕으로 손동작을 인식하여 IPTV 콘텐츠 및 차세대 통합형 디스플레이 기기의 동작 제어를 위한 손동작 인식 기반의 콘텐츠 제어 방법에 관한 것이다.
    본 발명에 따르는 차세대 통합 디스플레이 장치용 손동작 인식 기반의 콘텐츠 제어 방법은, 영상촬영수단을 통해 획득한 영상에서 손 영역을 추출하는 단계; 추출된 상기 손 영역에서 손의 움직임을 인식하는 단계를 포함하여 이루어지는 것을 구성적 특징으로 한다.

    컨테이너 성량 및 거리 검출 방법
    13.
    发明公开
    컨테이너 성량 및 거리 검출 방법 有权
    检测区域的方法和测量容器的距离

    公开(公告)号:KR1020110059234A

    公开(公告)日:2011-06-02

    申请号:KR1020090115896

    申请日:2009-11-27

    Inventor: 이응주

    Abstract: PURPOSE: A container volume and distance detecting method is provided to be applied to produce three-dimensional information to implement virtual space. CONSTITUTION: A container volume and distance detecting method is as follows. The fixed region is an image of taken by a stereo camera(S1). Edges are detected from the recorded image(S2). The linear components are detected from detected edges(S4). The container candidate areas are drawn based on the detected linear components(S6). A container domain is detected by mapping container candidate domains and an edge detected image(S8). 3D image of container is produced based on the image of the container domain(S9). The distance between the container and crane are detected from scanning information(S12).

    Abstract translation: 目的:提供容器体积和距离检测方法,以产生三维信息来实现虚拟空间。 规定:容器体积和距离检测方法如下。 固定区域是由立体摄像机拍摄的图像(S1)。 从记录图像中检测边缘(S2)。 从检测到的边缘检测线性分量(S4)。 基于检测到的线性分量绘制容器候补区域​​(S6)。 通过映射容器候选域和边缘检测图像来检测容器域(S8)。 基于容器域的图像生成容器的3D图像(S9)。 从扫描信息检测容器与起重机之间的距离(S12)。

    사용자의 제스춰 정보 인식을 기반으로 하여 디스플레이장치의 동작을 제어하는 시스템
    14.
    发明公开
    사용자의 제스춰 정보 인식을 기반으로 하여 디스플레이장치의 동작을 제어하는 시스템 有权
    系统控制显示设备的操作,基于用户的姿态信息识别

    公开(公告)号:KR1020100032699A

    公开(公告)日:2010-03-26

    申请号:KR1020080091689

    申请日:2008-09-18

    Inventor: 이응주

    CPC classification number: H04N21/435 G06K9/00355

    Abstract: PURPOSE: A system for controlling the operation of a display device based on gesture information recognition of a user is provided to build feature information of the shape, location and gesture of a face, hands and legs in a database, thereby classifying and analyzing an inputted image to generate feature information. CONSTITUTION: A system for controlling the operation of a display device includes a photographing unit(150), a face part extracting unit(110) and a face part identifying unit(120). The photographing unit photographs a user. The face part extracting unit extracts a face part from an image screen obtained from the photographing unit. The face part identifying unit determines whether a user is an adult by the extracted face part and determines whether watching an adult channel is possible.

    Abstract translation: 目的:提供一种用于基于用户的手势信息识别来控制显示装置的操作的系统,以构建数据库中的面部,手和腿的形状,位置和手势的特征信息,从而对输入的 图像生成特征信息。 构成:用于控制显示装置的操作的系统包括拍摄单元(150),面部提取单元(110)和面部识别单元(120)。 拍摄单元拍摄用户。 面部部分提取单元从从拍摄单元获得的图像屏幕中提取面部部分。 脸部识别单元通过提取的脸部部分来确定用户是否是成人,并且确定是否可以观看成人频道。

    벡터 콘텐츠 인증 보안을 위한 다중 스케일 곡률기반 벡터 데이터 해싱기술

    公开(公告)号:KR1020180094452A

    公开(公告)日:2018-08-23

    申请号:KR1020170020769

    申请日:2017-02-15

    Inventor: 이응주 이석환

    Abstract: 본발명은다중스케일곡률기반가시적벡터모델해싱방법에관한것이다. 본발명의제 1 측면은, 모든폴리라인및 폴리곤객체들에대하여 Radius curvature, Turning angle curvature, Gaussian curvature의다중곡률활동에너지분포를기반으로다차원특징계수행렬을생성한다음, 이들을랜덤계수와 Partial Exponential Bell Polynomials에의한랜덤맵핑에의하여다차원중간해쉬계수행렬을구하는제 1 단계; 및실수타입의중간해쉬계수행렬에대해서 Lloyd-Max 양자화에의하여최종이진해쉬행렬을구하여, 다차원이진해쉬행렬은스케일과곡률타입에의하여벡터모델의보안등급에따른계층적인증이가능하도록하는제 2 단계; 를포함하는것을특징으로하는다중스케일곡률기반가시적벡터모델해싱방법을제공함에있다. 또한, 본발명의제 2 측면은, 다중스케일및 곡률기반해쉬함수에의한해쉬생성과정; 및해쉬추출함수을통한벡터모델인증과정; 을포함하는것을특징으로하는다중스케일곡률기반가시적벡터모델해싱방법을제공함에있다. 이에의해, 벡터데이터모델내 주요레이어상에폴리라인들을그룹화한다음, 폴리라인의 1차및 2차곡선곡률분포에따라그룹계수를생성하고, 이들그룹계수를랜덤계수키 패턴으로투영기에의하여특징계수를얻은다음, 이를이진화과정에의하여최종이진해쉬를생성함으로써, 생성된해쉬가다양한공격에대한강인성과랜텀키에의한보안성및 유일성을만족하는효과를제공한다. 또한, 객체간단화, 삭제, 복사, 끊기등의객체공격에대하여제안한방법이기존방법에비하여 2×10~2.8×10정도오류검출확률이낮으며, 모델-키, 키, 모델의세 타입에대한해쉬유일성평가에서제안한방법이기존방법에비하여 0.014 정도유일확률이높일수 있는효과를제공한다. 뿐만아니라, 미분엔트로피기반보안성평가에서제안한방법이기존방법에비하여 0.875~2.149 정도엔트로피가높도록할 수있는효과를제공한다.

    GPS장착 구명조끼 및 스마트폰을 이용한 해난방지 안전 시스템
    17.
    发明公开
    GPS장착 구명조끼 및 스마트폰을 이용한 해난방지 안전 시스템 无效
    使用GPS设备的海上运动护具和智障人员的海上安全防范系统

    公开(公告)号:KR1020160104498A

    公开(公告)日:2016-09-05

    申请号:KR1020150027641

    申请日:2015-02-26

    Abstract: 본발명에따른 GPS장착구명조끼및 스마트폰을이용한해난방지안전시스템은, GPS모듈이장착된부력을가진구명조끼; 상기구명조끼의 GPS모듈의신호를수신할수 있는 GPS송수신장치가장착된휴대단말기; 상기휴대단말기에설치되어상기 GPS송수신장치로부터수신되는상기구명조끼의 GPS신호를감지하여사용자에게위치를실시간으로표시하는어플리케이션;을포함하는것을특징으로한다.

    Abstract translation: 根据本发明,使用配备GPS的救生衣和智能手机的海上安全防范系统包括:具有GPS模块和浮力的救生衣; 便携式终端具有GPS发送/接收装置,用于接收救生衣GPS模块的信号; 以及安装到便携式终端的应用,检测从GPS发送/接收装置接收的救生衣的GPS信号,并向用户实时显示位置。 因此,幸存者的位置能够快速检测。

    동적보상퍼지신경네트워크(DCFNN)를 기반으로 한 얼굴인식 알고리즘
    18.
    发明公开
    동적보상퍼지신경네트워크(DCFNN)를 기반으로 한 얼굴인식 알고리즘 有权
    基于动态补偿FUZZY神经网络算法的混合方法用于面部识别

    公开(公告)号:KR1020160037423A

    公开(公告)日:2016-04-06

    申请号:KR1020140129852

    申请日:2014-09-29

    Inventor: 이응주

    CPC classification number: G06K9/6212 G06K9/527

    Abstract: 본발명은얼굴인식방법에관한것으로, 동적보상퍼지신경네트워크(DCFNN)와고유얼굴인식-LCA(Eigen face-LDA)를혼합한얼굴인식알고리즘으로서, 고차원의이미지를저차원으로투영시켜사이즈를감소시키는사이즈감소단계; 고유얼굴알고리즘및 LDA알고리즘을이용하여대상얼굴의특징을추출하여데이터베이스화하는특징추출단계; 상기특징추출단계에서추출된데이터베이스를이용하여, 동적보상퍼지신경네트워크(DCFNN) 알고리즘구조를형성하는알고리즘구조형성단계; 상기알고리즘구조형성단계로부터형성된알고리즘구조가얼굴추출기에입력되는입력단계; 상기의입력단계에서입력된데이터가얼굴인식알고리즘을통해데이터를처리하는처리단계; 상기의처리단계에서추출된데이터가인식과정을거쳐얼굴인식이구현되는구현단계를포함하는것을특징으로하는얼굴인식알고리즘을제공한다.

    Abstract translation: 本发明涉及一种识别脸部的方法。 根据本发明,提供了一种面部识别算法,其中组合了动态补偿模糊中性网络(DCFNN)和特征面潜伏狄利克雷分配(LDA),所述人脸识别算法包括:尺寸缩小步骤, 将尺寸图像提供给低维图像以减小高维图像的尺寸; 特征提取步骤,通过使用特征面算法和LDA算法构建数据库来提取对象面的特征; 通过使用在特征提取步骤中提取的数据库来构造DCFNN算法的算法结构化步骤; 将在算法结构化步骤中形成的算法结构输入到面部提取器中的输入步骤; 处理步骤,通过面部识别算法处理在输入步骤中输入的数据; 以及通过从数据处理步骤提取的数据的识别处理来实现人脸识别的实现步骤。

    인간과 단말기간의 마우스 인터페이스 시스템 및 제어방법
    20.
    发明授权
    인간과 단말기간의 마우스 인터페이스 시스템 및 제어방법 有权
    人与终端之间的鼠标接口系统和控制方法

    公开(公告)号:KR100957194B1

    公开(公告)日:2010-05-11

    申请号:KR1020080059714

    申请日:2008-06-24

    Inventor: 이응주 이위

    Abstract: 본 발명은 사람의 입 위치와 모양 정보에서 추출한 데이터의 분석 결과를 이용하여 단말기를 제어할 수 있도록 하는 단말기 자동제어 인터페이스 시스템에 관한 것이다.
    본 발명은 사용자들의 다양한 얼굴형태 및 입의 위치와 모양 등의 특징 정보를 추출하여 데이터베이스화하고, 입력된 영상을 분석하여 얻어진 정보와 얼굴의 기하학적 구조를 바탕으로 사람의 얼굴 형태를 결정하고 처리된 입의 위치와 얼굴의 기하학적 위치구조관계를 이용해서 입의 위치정보를 계산함은 물론, 계산된 사용자의 정보를 이용하여 단말기를 제어할 수 있도록 하는 것으로, 단말기를 제어함에 있어 별다른 외부 장치의 입력 없이 마우스 위치 정보와 동일한 입력이 이루어지도록 한 것이다.
    입의 컬러정보를 이용하여 입모양을 2진 이미지로 처리하고 분석된 결과의 입 모양정보를 바탕으로 단말기에게 제어 정보를 전달함으로써 단말기를 쉽게 제어 할 수 있도록 하고, 사용자에게 온라인 실시간 이미지 분석프로그램을 제공하여 사용자의 얼굴 이미지 분석결과를 사전에 사용자시스템에서 미리 이루어지도록 하고, 시스템에서는 카메라를 통해 분석된 결과정보만을 제공받아 단말기에게 제어정보를 제공할 수 있도록 하고자 한 것이다.
    본 발명에서는 제 1 관점으로서, 인간 단말기간 마우스 인터페이스 제어방법에 있어서, 영상입력부에서 얼굴영상을 입력받는 1단계와; 이미지처리부에서 RGB 이미지를 YC
    b Cr 컬러 공간의 이미지로 변경하는 2단계와; 이미지처리부에서 얼굴영역을 검출하는 3단계와; 입위치검출부에서 얼굴영역에서 입위치를 검출하는 4단계와; 입형태분석모듈부에서 얼굴영역을 이용하여 입형태를 검출하는 5단계와; 단말기 제어명령 생성부에서 상기 입위치와 입형태를 이용하여 단말기 제어명령 생성 후에 단말기에 제어명령을 전달하는 6단계를 포함하는 것을 특징으로 하는 인간 단말기간 마우스 인터페이스 제어방법이 제시된다.
    제 2 관점으로서, 인간 단말기간 마우스 인터페이스 제어방법에 있어서, 영상입력부에서 얼굴영상을 입력받는 1단계와; 이미지처리부에서 RGB 이미지를 YC
    b Cr 컬러 공간의 이미지로 변경하는 2단계와; 이미지처리부에서 얼굴영역을 검출하는 3단계와; 입형태분석모듈부에서 얼굴영역을 이용하여 입형태를 검출하는 4단계와; 입위치검출부에서 얼굴영역에서 입위치를 검출하는 5단계와; 단말기 제어명령 생성부에서 상기 입위치와 입형태를 이용하여 단말기 제어명령 생성 후에 단말기에 제어명령을 전달하는 6단계를 포함하는 것을 특징으로 하는 인간 단말기간 마우스 인터페이스 제어방법이 제시된다.
    제 3 관점으로서, 인간 단말기간 마우스 인터페이스 시스템에 있어서, 인간의 얼굴영상을 입력받는 영상입력부와; 상기 얼굴영상을 이용하여 이미지변환을 하여 얼굴영역을 추출하는 이미지처리부와; 상기 얼굴영역에서 입위치를 추출하는 입위치검출모듈부와; 상기 얼굴영역에서 입형태를 분석하는 입형태분석모듈부와; 상기 입위치와 입형태를 이용하여 단말기에 전달할 제어명령을 생성하는 단말기 제어 명령 생성부를 포함하는 것을 특징으로 하는 인간 단말기간 마우스 인터페이스 시스템이 제시된다.
    인터페이스, 마우스, 제어, 입위치, 입형태, 명령

Patent Agency Ranking