필기 인식을 위한 필기 입력 가이드 장치 및 방법

    公开(公告)号:KR101898202B1

    公开(公告)日:2018-09-12

    申请号:KR1020120013169

    申请日:2012-02-09

    CPC classification number: G06F3/04883 G06K9/222

    Abstract: 다양한실시예에따르면, 필기인식을위한필기입력가이드장치에있어서, 터치스크린, 문자특징데이터베이스및 제어부를포함하고, 상기제어부는, 사용자에의해입력된필기문자로부터상기장치에의해판독가능한문자로변환된적어도하나의광학문자와상기적어도하나의광학문자에각각대응하는문자특징정보를상기문자특징데이터베이스에저장하고, 상기터치스크린을통해상기사용자에의해입력된제1 필기획(stroke)을표시하고, 상기제1 필기획으로부터제1 특징정보를검출하고, 상기검출된제1 특징정보를이용하여상기제1 필기획을가지는복수의제1 광학문자후보를결정하고, 상기터치스크린을통해상기복수의제1 광학문자후보들을표시하되, 상기복수의제1 광학문자후보들은각각이광학문자의일부로서상기제1 필기획을가지도록겹쳐서표시되는것을특징으로한다. 또한다른실시예들이가능하다.

    영상 정합 장치 및 영상 정합 방법
    2.
    发明公开
    영상 정합 장치 및 영상 정합 방법 审中-实审
    视频匹配设备和视频匹配方法

    公开(公告)号:KR1020140102038A

    公开(公告)日:2014-08-21

    申请号:KR1020130015435

    申请日:2013-02-13

    Inventor: 강우성

    CPC classification number: G06K9/6211 G06K9/4671

    Abstract: Provided are a method and a device to match a video, capable of more clearly expressing video features matched with a small calculation amount, and at the same time increasing a processing speed by reducing an entire calculation amount. According to the present invention, the method to match a video includes the processes of: receiving a first video inputted from the outside; extracting feature points from the first video; generating engineers for the first video based on the feature points; and comparing the engineers for the first video with the engineers for a second video to match the first video and the second video.

    Abstract translation: 提供了一种能够更清晰地表达与小计算量匹配的视频特征的视频的方法和装置,同时通过减少整个计算量来增加处理速度。 根据本发明,用于匹配视频的方法包括以下处理:接收从外部输入的第一视频; 从第一个视频中提取特征点; 基于特征点为第一个视频生成工程师; 并将第一个视频的工程师与工程师进行比较,获得第二个视频,以匹配第一个视频和第二个视频。

    전자 장치 및 전자 장치에서 얼굴 정보를 분석하는 방법
    4.
    发明公开
    전자 장치 및 전자 장치에서 얼굴 정보를 분석하는 방법 审中-实审
    电子设备中的电子设备和分析面部信息的方法

    公开(公告)号:KR1020160052309A

    公开(公告)日:2016-05-12

    申请号:KR1020150092549

    申请日:2015-06-29

    Abstract: 본발명은전자장치및 전자장치에서얼굴정보를분석하는방법에관한것으로, 카메라모듈을통해촬영중인이미지에서적어도하나의얼굴영역을검출하고, 상기검출된적어도하나의얼굴영역을세부촬영하고, 상기세부촬영된얼굴영역을적어도하나의분석항목에따라분석할수 있으며, 그외 다양한실시예가가능할수 있다.

    Abstract translation: 本发明涉及一种电子设备和用于分析电子设备中的面部信息的方法。 该方法包括以下步骤:从由相机模块记录的图像中检测至少一个面部区域; 以详细的方式拍摄检测到的至少一个面部区域; 以及根据至少一个分析项目分析已经以详细方式拍摄的至少一个面部区域。 其他实施例是可能的。 根据本发明,当检查诸如面部区域的面部信息时,电子设备自动对被检查区域或相关区域进行聚焦和照片,而不需要额外的用户操作。

    객체와 관련된 정보를 제공하는 방법 및 장치
    5.
    发明公开
    객체와 관련된 정보를 제공하는 방법 및 장치 审中-实审
    用于提供与对象相关的信息的装置和方法

    公开(公告)号:KR1020150146057A

    公开(公告)日:2015-12-31

    申请号:KR1020140075889

    申请日:2014-06-20

    Inventor: 강우성

    Abstract: 영상을획득하는단계, 디바이스에등록된객체가상기영상내에존재하는지판단하는단계, 및상기등록된객체가상기영상내에존재하는것으로판단된경우, 상기등록된객체의관련정보를표시하는단계를포함하는디바이스동작방법이개시된다.

    Abstract translation: 根据本发明的用于提供与对象相关的信息的方法包括以下步骤:获得图像; 确定在图像中是否存在注册在设备中的对象; 以及当确定所述注册对象存在于所述图像中时,显示与所述注册对象有关的信息。

    움직임 인식을 이용한 사용자 인터페이스 장치 및 방법
    6.
    发明公开
    움직임 인식을 이용한 사용자 인터페이스 장치 및 방법 无效
    用于生成使用胶卷发送呼叫的屏幕的装置和方法

    公开(公告)号:KR1020120045667A

    公开(公告)日:2012-05-09

    申请号:KR1020100107344

    申请日:2010-10-29

    CPC classification number: G06K9/00355 G06F3/017 G06K9/00228 H04M1/27455

    Abstract: PURPOSE: A user interface device using motion recognition and a method thereof are provided to detect a hand area corresponding to an extracted color through learning skin colors from a motion accumulated image and recognize the motion of the hand area with the user interface. CONSTITUTION: A skin color learning unit(120) learns a skin color from a detected face area. A motion accumulated area detecting unit(140) detects a motion accumulated area from a motion accumulated image A motion area detecting unit(150) detects a motion area corresponding to the learned skin color from the detected motion accumulated area. A motion detecting unit(160) detects motion information from the detected motion area.

    Abstract translation: 目的:提供使用运动识别的用户界面装置及其方法,以通过从运动累积图像学习肤色来检测与提取的颜色相对应的手区域,并且利用用户界面识别手区域的运动。 构成:皮肤颜色学习单元(120)从检测到的脸部区域学习皮肤颜色。 运动累积区域检测单元(140)从运动累积图像A检测运动累积区域运动区域检测单元(150)从检测到的运动累积区域检测与学习肤色相对应的运动区域。 运动检测单元(160)从检测到的运动区域检测运动信息。

    애니메이션 메시지 생성 방법 및 장치
    7.
    发明授权
    애니메이션 메시지 생성 방법 및 장치 有权
    用于生成动画消息的方法和装置

    公开(公告)号:KR101658239B1

    公开(公告)日:2016-09-30

    申请号:KR1020100034814

    申请日:2010-04-15

    Abstract: 본발명은애니메이션메시지생성방법에있어서, 상기애니메이션메시지를생성하기위한이미지에서입력객체를인식하여상기각 객체의입력시간및 입력좌표에대한정보를포함하는입력정보를추출하는과정과, 상기각 객체별로재생순서에대한정보를포함하는재생정보를설정하는과정과, 상기이미지를상기애니메이션메시지의미리설정된필기영역에표시하는과정과, 상기애니메이션메시지의미리설정된부분에할당되며, 상기입력정보및 상기재생정보를저장하기위한부호화영역을미리설정된크기의복수의블록으로분할하는과정과, 상기부호화영역의각 블록에상기입력정보및 상기재생정보를매핑하여부호화영역의표시내용을생성하는과정과, 상기필기영역및 상기부호화영역을포함한애니메이션메시지를생성하는과정과, 상기생성된애니메이션메시지를전송하는과정을포함한다.

    Abstract translation: 提供了一种方法和电子设备,用于将消息从电子设备发送到另一电子设备。 接收包括一个或多个输入对象的手写输入。 使用一个或多个输入对象的输入坐标或一个或多个输入对象的输入时间来生成一个或多个输入对象的回放信息。 根据回放信息生成包括其中显示一个或多个图像的第一区域和其中显示一个或多个输入对象的第二区域的动画消息。 动画消息被传送到另一个电子设备。

    상황 인지 서비스를 제공하기 위한 장소 인식 장치 및 방법
    8.
    发明公开
    상황 인지 서비스를 제공하기 위한 장소 인식 장치 및 방법 审中-实审
    位置识别装置和提供上下文意识服务的方法

    公开(公告)号:KR1020140074129A

    公开(公告)日:2014-06-17

    申请号:KR1020120142355

    申请日:2012-12-07

    CPC classification number: H04M1/72569 G06F3/16 G06K9/00624 H04W88/02

    Abstract: Provided is a method for providing a context awareness service appropriate for characteristics of a place where a mobile device is located. To this end, the method includes the processes of: extracting feature points from an input video or an input sound; and applying the feature points to a learning classifier to detect whether the input video or the input sound presents a specific place. If the input video is a video having taken pictures of a specific place or the input sound corresponds to a sound generated in the specific place, a preset function of the mobile device is controlled to correspond to the specific place. By doing this, it is possible to set a function or provide a service appropriate for the characteristics of the place where the mobile device is located, thereby facilitating various contest awareness services.

    Abstract translation: 提供了一种用于提供适合移动设备所在的地方的特征的上下文感知服务的方法。 为此,该方法包括以下处理:从输入视频或输入声音提取特征点; 以及将特征点应用于学习分类器以检测输入视频或输入声音是否呈现特定的位置。 如果输入视频是拍摄了特定地点的图像或输入声音对应于在特定地点产生的声音,则控制移动设备的预设功能以对应于特定地点。 通过这样做,可以设置适合于移动设备所在地的特征的功能或提供服务,从而便于各种竞赛意识服务。

    애니메이션 메시지 생성 방법 및 장치
    9.
    发明公开
    애니메이션 메시지 생성 방법 및 장치 有权
    用于生成动画消息的方法和装置

    公开(公告)号:KR1020110115357A

    公开(公告)日:2011-10-21

    申请号:KR1020100034814

    申请日:2010-04-15

    Abstract: 본 발명은 애니메이션 메시지 생성 방법에 있어서, 상기 애니메이션 메시지를 생성하기 위한 이미지에서 입력 객체를 인식하여 상기 각 객체의 입력 시간 및 입력 좌표에 대한 정보를 포함하는 입력 정보를 추출하는 과정과, 상기 각 객체 별로 재생 순서에 대한 정보를 포함하는 재생 정보를 설정하는 과정과, 상기 이미지를 상기 애니메이션 메시지의 미리 설정된 필기 영역에 표시하는 과정과, 상기 애니메이션 메시지의 미리 설정된 부분에 할당되며, 상기 입력 정보 및 상기 재생 정보를 저장하기 위한 부호화 영역을 미리 설정된 크기의 복수의 블록으로 분할하는 과정과, 상기 부호화 영역의 각 블록에 상기 입력 정보 및 상기 재생 정보를 매핑하여 부호화 영역의 표시 내용을 생성하는 과정과, 상기 필기 영역 및 상기 부호화 영역을 포함한 애니메이션 메시지를 생성하는 과정과, 상기 생성된 애니메이션 메시지를 전송하는 과정을 포함한다.

    Abstract translation: 提供了一种方法和电子设备,用于将消息从电子设备发送到另一电子设备。 接收包括一个或多个输入对象的手写输入。 使用一个或多个输入对象的输入坐标或一个或多个输入对象的输入时间来生成一个或多个输入对象的回放信息。 根据回放信息生成包括其中显示一个或多个图像的第一区域和其中显示一个或多个输入对象的第二区域的动画消息。 动画消息被传送到另一个电子设备。

Patent Agency Ranking