상호작용을 이용한 스포츠 시뮬레이터 및 그것의 구동 방법
    21.
    发明公开
    상호작용을 이용한 스포츠 시뮬레이터 및 그것의 구동 방법 审中-实审
    运动模拟器使用相互作用和操作方法

    公开(公告)号:KR1020140081382A

    公开(公告)日:2014-07-01

    申请号:KR1020120151067

    申请日:2012-12-21

    CPC classification number: G06Q50/22 G09B9/00

    Abstract: A sport simulator according to an embodiment of the present invention comprises a user data unit storing information regarding history and an exercise state of a user, a coaching data unit storing coaching information for correcting the exercise state of the user, a simulator driving unit performing an exercise movement according to content based on the coaching information, a content expressing unit displaying exercise information of the user measured through the simulator driving unit, and an interaction control unit analyzing the displayed exercise information of the user and the coaching information, creating posture correction information based on the analysis result, and feeding back the created posture correction information to the user.

    Abstract translation: 根据本发明实施例的运动模拟器包括用户数据单元,其存储关于用户的历史和运动状态的信息,存储用于校正用户的运动状态的辅导信息的辅导数据单元,执行用户的运动模拟器 根据基于指导信息的内容的运动运动,显示通过模拟器驱动单元测量的用户的运动信息的内容表达单元和分析所显示的用户的运动信息和辅导信息的交互控制单元,创建姿势校正信息 基于分析结果,将创建的姿势校正信息反馈给用户。

    멀티모달 융합을 위한 환경변수 측정방법
    22.
    发明授权
    멀티모달 융합을 위한 환경변수 측정방법 有权
    用于测量多模式融合的环境参数的方法

    公开(公告)号:KR101276204B1

    公开(公告)日:2013-06-20

    申请号:KR1020100044142

    申请日:2010-05-11

    CPC classification number: G06K9/00288 G06K9/6293 G10L17/10

    Abstract: 멀티모달 융합을 위한 환경변수 측정방법이 제공된다. 환경변수 측정방법은 적어도 하나 이상의 등록 모달리티를 준비하는 단계, 적어도 하나 이상의 입력 모달리티를 받는 단계, 하나의 등록 모달리티로서의 등록 영상의 조도를 기준으로 하나의 입력 모달리티로서의 입력 영상에 대한 영상관련환경변수를 계산하는 단계, 및 영상관련환경변수를 기설정된 기준값과 비교하고 그 비교 결과에 따라 입력 영상을 폐기하거나 또는 인식 데이터로서 출력하는 단계를 포함한다.

    멀티모달 융합을 위한 환경변수 측정방법
    23.
    发明公开
    멀티모달 융합을 위한 환경변수 측정방법 有权
    用于测量多模式融合的环境参数的方法

    公开(公告)号:KR1020110124644A

    公开(公告)日:2011-11-17

    申请号:KR1020100044142

    申请日:2010-05-11

    CPC classification number: G06K9/00288 G06K9/6293 G10L17/10

    Abstract: PURPOSE: A method for measuring environmental parameters for multi-modal fusion is provided to simply determines the input of new recognition data or the discharge of inputted and recognized data if the input data is not so good. CONSTITUTION: An environment variable measurement device transforms the input image to gray images first if input images for face recognition exists(S110,S120). The device obtains a video related environmental variable about the input image(S130). If an input voice for speaker identification exists, the device obtains a voice related environmental variable about the input voice(S140,S150). If a bright rate, a noise rate, or both is same or smaller than a reference value, the device transmits corresponding input data to a face recognition unit or a speaker identification unit(S160,S180).

    Abstract translation: 目的:提供一种用于多模态融合的环境参数测量方法,以便简单地确定新的识别数据的输入,或者输入数据的输入数据不太好时输入和识别的数据的放电。 构成:如果存在用于人脸识别的输入图像,则环境变量测量装置首先将输入图像转换为灰色图像(S110,S120)。 该装置获取关于输入图像的视频相关环境变量(S130)。 如果存在用于扬声器识别的输入声音,则该装置获取关于输入声音的与声音相关的环境变量(S140,S150)。 如果亮度,噪声率或两者都相同或小于参考值,则装置将对应的输入数据发送到面部识别单元或扬声器识别单元(S160,S180)。

    시각 기반 사용자 연령대 구분 및 추정 방법
    24.
    发明公开
    시각 기반 사용자 연령대 구분 및 추정 방법 无效
    基于视觉的年龄分类和估计方法

    公开(公告)号:KR1020110029805A

    公开(公告)日:2011-03-23

    申请号:KR1020090087632

    申请日:2009-09-16

    Abstract: PURPOSE: A vision-based age classification and estimation method is provided to supply a customized service to a user based on an estimated age. CONSTITUTION: A face is detected from an input image(S110), and eyes are detected from the detected face(S120). Based on the positions of eyes, the input image is adjusted(S130). A feature vector is extracted from the adjusted input image(S140), and an age is classified by using the feature vector having a reduced dimension(S160).

    Abstract translation: 目的:提供基于视觉的年龄分类和估计方法,以根据估计年龄向用户提供定制服务。 构成:从输入图像检测到脸部(S110),从检测到的脸部检测到眼睛(S120)。 基于眼睛的位置,调整输入图像(S130)。 从调整后的输入图像中提取特征向量(S140),并且通过使用尺寸减小的特征向量对年龄进行分类(S160)。

    온라인 방식에 의한 화자 인식 방법 및 이를 위한 장치
    25.
    发明授权
    온라인 방식에 의한 화자 인식 방법 및 이를 위한 장치 失效
    在线扬声器识别方法及其设备

    公开(公告)号:KR100826875B1

    公开(公告)日:2008-05-06

    申请号:KR1020060087004

    申请日:2006-09-08

    CPC classification number: G10L17/04

    Abstract: 본 발명은 온라인 방식에 의한 화자 인식 방법 및 이를 위한 장치에 관한 것으로서, 가정용 서비스 로봇에 있어서 화자의 음성에 관한 데이터를 미리 설정할 필요가 없고, 시간이나 환경변화에 따라 등록되어 있는 화자에 대한 음성 데이터를 적응해 나갈 수 있으며, 일반적인 잡음에 강인한 특성을 갖추도록 하기 위하여 화자가 음성을 이용하여 지속적으로 반응하도록 연속적으로 요구하는 컨텐츠를 이용하여 화자의 기본데이터 및 화자의 음성 데이터를 입력받는 단계; 음성 데이터에서 화자의 음성만을 추출하는 단계; 화자의 음성으로부터 인식에 필요한 특징 벡터를 추출하는 단계; 상기 추출한 특징 벡터로부터 화자 모델을 만드는 단계; 및, 입력된 음성으로부터 파악된 정보에 기초하여 화자 모델에 저장된 화자를 인식하는 단계를 포함하는 화자 인식 방법을 제공한다.
    가정용 서비스 로봇, 화자 인식, 음성 인식, 컨텐츠

    손 모양을 인식하는 방법 및 이를 위한 장치
    26.
    发明公开
    손 모양을 인식하는 방법 및 이를 위한 장치 失效
    手指识别方法及其设备

    公开(公告)号:KR1020080029222A

    公开(公告)日:2008-04-03

    申请号:KR1020060095012

    申请日:2006-09-28

    Abstract: A method for recognizing a shape of a hand and an apparatus therefor are provided to apply an algorithm, for separating a palm from a hand, to a detected hand area, to recognize the hand area by using a run length algorithm and a neural network, and to determine whether the shape of the hand is for expressing scissors, paper or stone by using an support vector machine. A method for recognizing a shape of a hand comprises the following several steps. A hand shape recognizing apparatus receives an image including the face and the hand of a target user. The hand shape recognizing apparatus detects the face area from the received image(S100). The apparatus collects face skin color information from the detected face area(S105). The apparatus detects the hand area on the basis of the collected face skin color information(S110). The apparatus analyzes the shape of the hand on the basis of the detected hand area information(S115).

    Abstract translation: 提供一种用于识别手的形状的方法及其装置,以应用用于将手掌从手分离到检测到的手区域的算法,以通过使用游程长度算法和神经网络来识别手区域, 并且通过使用支持向量机来确定手的形状是用于表达剪刀,纸或石头。 用于识别手的形状的方法包括以下几个步骤。 手形识别装置接收包括目标用户的脸部和手部的图像。 手形识别装置从接收到的图像检测面部区域(S100)。 该装置从检测到的脸部区域收集脸部肤色信息(S105)。 该装置基于收集的脸部皮肤颜色信息检测手部区域(S110)。 该装置基于检测到的手区信息来分析手的形状(S115)。

    영상 시스템의 비네팅 효과를 보상하기 위한 방법 및 이를이용한 영상 장치
    27.
    发明授权
    영상 시스템의 비네팅 효과를 보상하기 위한 방법 및 이를이용한 영상 장치 失效
    用于补偿成像系统的显影效果和使用其的成像装置的方法

    公开(公告)号:KR100558330B1

    公开(公告)日:2006-03-10

    申请号:KR1020030069896

    申请日:2003-10-08

    Abstract: 본 발명은 렌즈계를 이용한 디지털 카메라, 캠코더 등과 같은 영상 시스템에서 발생하는 비네팅 효과(vignetting effect)에 의한 영상 품질의 저하를 보상할 수 있는 방법에 관한 것이다. 본 발명에 따른 영상 시스템의 비네팅 효과를 보상하기 위한 방법은, (a) 레퍼런스 영상을 획득하여 가로 방향의 각 로우에 대해 조도 분포 함수의 비선형 최적화를 수행함으로써 함수 파라미터를 계산하는 단계; (b) 임의의 영상을 획득하고 각 컬러 성분의 조도 분포에 대한 미리 저장된 함수 파라미터를 이용하여 상기 획득된 영상의 각 픽셀 위치에서의 보정치를 계산하는 단계; 및, (c) 상기 단계 (b)의 계산 과정을 상기 획득된 영상의 전체 행에 대하여 실시하여 각 픽셀 위치에서의 조도 저하에 대한 보상을 수행하고 결과 영상을 얻는 단계를 포함한다.
    디지털 카메라, 비네팅(vignetting), 모델 최적화(model fitting), 영상 처리

    비수직 분할선을 가지는 붙은 필기체 숫자열의 분할방법
    28.
    发明授权
    비수직 분할선을 가지는 붙은 필기체 숫자열의 분할방법 失效
    用于分割由非垂直分割线分隔的手写触摸数字串的方法

    公开(公告)号:KR100518744B1

    公开(公告)日:2005-10-05

    申请号:KR1020020072754

    申请日:2002-11-21

    CPC classification number: G06K9/342 G06K2209/01

    Abstract: 본 발명은 비수직 분할선(non-vertical segmentation line)을 가지는 붙은 필기체 숫자열의 분할방법에 관한 것으로서, 형식 문서로부터 추출된 비수직 분할선을 가지는 붙은 필기체 숫자열 영상을 입력받는 단계(S1)와; 붙은 필기체 숫자열의 굴곡진 필기체 숫자열 영상을 스무딩시키는 단계(S2); 스무딩된 붙은 필기체 숫자열 영상에 대한 윤곽선을 찾는 단계(S3); 윤곽선으로부터 붙은 숫자열이 존재할 수 있는 후보 분할 영역을 찾는 단계(S4); 후보 분할 윤곽선 영역에서 후보 분할점을 찾는 단계(S5); 후보 분할점으로부터 붙은 필기체 숫자열을 분할하기 위한 수직 분할선을 찾는 단계(S6); 후보 분할점들로부터 임의의 기울기를 가지고 접촉되어 있는 붙은 필기체 숫자열을 분할하기 위한 비수직 분할선을 찾는 단계(S7); 및 수직/비수직 분할선에 의해 붙은 필기체 숫자열을 분할하는 단계(S8)로 이루어지며,
    이에 따라서, 수직 분할선에 의해 소실되는 숫자획으로 인하여 붙은 필기체 숫자열을 오인식할 수 있는 기존의 붙은 숫자열 분할방법의 오분할을 현저하게 줄일 수 있는 장점이 있다.

    비수직 분할선을 가지는 붙은 필기체 숫자열의 분할방법
    29.
    发明公开
    비수직 분할선을 가지는 붙은 필기체 숫자열의 분할방법 失效
    分离具有非垂直分段线的手写号码的方法

    公开(公告)号:KR1020040044656A

    公开(公告)日:2004-05-31

    申请号:KR1020020072754

    申请日:2002-11-21

    CPC classification number: G06K9/342 G06K2209/01

    Abstract: PURPOSE: A handwritten number segmentation method is provided to find non-vertical segmentation lines of handwritten numbers with an arbitrary incline, to definitely segment handwritten numbers and to recognize each number. CONSTITUTION: The method comprises several steps. An image of handwritten numbers with non-vertical segmentation lines is inputted(S1). The image, if it is bent, is smoothed(S2). A profile is extracted from the smoothed image(S3). Candidate segmentation areas, where there can exist numbers, are searched in the profile(S4). Candidate segmentation points are searched in the candidate segmentation areas(S5). Vertical segmentation lines are searched in the candidate segmentation points(S6). Non-vertical segmentation lines with arbitrary inclines are searched in the candidate segmentation points(S7). Attached numbers are segmented by using the vertical and non-vertical segmentation lines(S8).

    Abstract translation: 目的:提供手写数字分割方法,用于查找具有任意倾斜度的手写数字的非垂直分割线,以确定分割手写数字并识别每个数字。 构成:该方法包括几个步骤。 输入具有非垂直分割线的手写数字的图像(S1)。 如果图像弯曲,则平滑(S2)。 从平滑图像中提取轮廓(S3)。 在轮廓中搜索候选分割区域(可存在数字)(S4)。 在候选分割区域中搜索候选分割点(S5)。 在候选分割点中搜索垂直分割线(S6)。 在候选分割点中搜索具有任意倾斜的非垂直分割线(S7)。 通过使用垂直和非垂直分割线来分割附加的数字(S8)。

    문서영상 영역해석 방법
    30.
    发明公开
    문서영상 영역해석 방법 失效
    解读文件图像区域的方法

    公开(公告)号:KR1020020055454A

    公开(公告)日:2002-07-09

    申请号:KR1020000083420

    申请日:2000-12-28

    CPC classification number: G06K9/00456

    Abstract: PURPOSE: A method of interpreting a document image area is provided to extract connected components to group the connected components as tree structures according to spacial relations, and to readjust the components in a text area via separating/combining procedures, thereby efficiently interpreting a document structure. CONSTITUTION: Connected components are analyzed through a reduced document image(61, 62). A tree is generated by an analyzed result of the connected components, to classify the connected components(63, 64). Text factors are grouped according to spacial relations from the classified connected components. A text block is readjusted through separation/combination procedures of the connected components. The step of generating the tree and classifying the connected components comprises the steps as follows. The tree is constructed from types of the connected components. Connected components including tables, frames, and pictures are grouped as independent nodes with text. Connected components within a text block surrounded by margins are grouped. Nodes which are not grouped are classified by areas of the connected components.

    Abstract translation: 目的:提供一种解释文档图像区域的方法,以提取连接的组件,以根据空间关系将连接的组件分组为树结构,并通过分离/组合过程重新调整文本区域中的组件,从而有效地解释文档结构 。 构成:通过缩小的文档图像分析连接的组件(61,62)。 通过连接的组件的分析结果生成树,以对连接的组件进行分类(63,64)。 文本因素根据与分类的连通组件的空间关系进行分组。 通过连接组件的分离/组合程序重新调整文本块。 生成树并对连接的组件进行分类的步骤包括以下步骤。 树是由连接的组件的类型构成的。 连接的组件,包括表,框架和图片被分组为具有文本的独立节点。 通过边距包围的文本块中的已连接组件进行分组。 未分组的节点按照连接组件的区域进行分类。

Patent Agency Ranking