온라인 방식에 의한 화자 인식 방법 및 이를 위한 장치
    11.
    发明公开
    온라인 방식에 의한 화자 인식 방법 및 이를 위한 장치 失效
    在线扬声器识别方法及其设备

    公开(公告)号:KR1020080023030A

    公开(公告)日:2008-03-12

    申请号:KR1020060087004

    申请日:2006-09-08

    CPC classification number: G10L17/04

    Abstract: An online speaker recognition method and an apparatus therefor are provided to enable a speaker model adaptation module to update continuously a speaker model stored in a memory unit by using the voice data of a speaker inputted continuously by contents, thereby being adapted to the voice data of the speaker which is registered according to a change of time and environment. An online speaker recognition method comprises the following steps of: receiving basic data of a speaker and the voice data of the speaker by using contents which requests the continuous voice response of the speaker(S100,S105); extracting only the voice of the speaker from the voice data(S115); extracting a specific vector necessary for the speaker recognition from the speaker's voice(S120); creating a speaker model from the extracted specific vector(S125); and recognizing the speaker stored in the speaker model on the basis of information recognized from the input voice(S130).

    Abstract translation: 提供了一种在线说话人识别方法及其装置,以使扬声器模型适应模块能够通过使用由内容连续输入的扬声器的语音数据来连续地更新存储在存储器单元中的扬声器模型,从而适应于 根据时间和环境的变化注册的扬声器。 一种在线说话人识别方法包括以下步骤:通过使用请求扬声器的连续语音响应的内容(S100,S105),接收讲话者的基本数据和讲话者的语音数据; 从语音数据中仅提取扬声器的声音(S115); 从扬声器的声音提取讲话者识别所需的特定向量(S120); 从所提取的特定向量创建说话者模型(S125); 并且基于从输入声音识别的信息来识别存储在扬声器模型中的扬声器(S130)。

    어파인 변환을 이용한 문서 영상의 기하학적 왜곡 보정장치 및 방법
    12.
    发明公开
    어파인 변환을 이용한 문서 영상의 기하학적 왜곡 보정장치 및 방법 失效
    使用AFFINE变换的文件图像的几何失真校正的装置和方法

    公开(公告)号:KR1020060033973A

    公开(公告)日:2006-04-21

    申请号:KR1020040083074

    申请日:2004-10-18

    CPC classification number: G06T5/006 G06K9/32 G06K2209/01

    Abstract: 1. 청구범위에 기재된 발명이 속하는 기술분야
    본 발명은 어파인 변환을 이용한 문서 영상의 기하학적 왜곡 보정 장치 및 방법에 관한 것임.
    2. 발명이 해결하려고 하는 기술적 과제
    본 발명은 문서 영상을 획득하여 문자 인식을 수행하는 과정에서, 문서 영상 자체만으로 이진화 및 영역 분할를 수행하고 어파인 변환을 수행함으로써, 왜곡없는 문자 인식을 수행하기 위한, 어파인 변환을 이용한 문서 영상의 기하학적 왜곡 보정 방법을 제공하는데 그 목적이 있음.
    3. 발명의 해결방법의 요지
    문서 영상의 기하학적 왜곡 보정 방법에 있어서, 상기 문서 영상을 이진화하는 이진화 단계; 이진화된 문서 영상으로부터 문자열을 생성하는 문자열 생성 단계; 생성된 문자열을 이용하여 문서 영상에 외접하는 수평/수직 방향의 직선을 추출하는 직선 추출 단계; 및 추출된 수평/수직 방향의 직선이 형성하는 사변형 영역을 어파인변환을 이용하여 직사각형 영역으로 변환하는 어파인변환 단계를 포함함.
    4. 발명의 중요한 용도
    본 발명은 문자 인식 기술에 이용됨.
    문자 인식, 문서 영상, 어파인변환, 왜곡 보정

    문서영상 영역해석 방법
    13.
    发明授权
    문서영상 영역해석 방법 失效
    문서영상영역해석방법

    公开(公告)号:KR100411894B1

    公开(公告)日:2003-12-24

    申请号:KR1020000083420

    申请日:2000-12-28

    CPC classification number: G06K9/00456

    Abstract: A method for region analysis of a document image applied to region analysis system of a document image, the method includes the steps of: a) analyzing a connected component though a reduced documentimage; b) classifying the connected component by generating a tree according to analysis result of the connected component; c) grouping text components from the classified connected component according to a spatial connection; and d) refining a text block by repeating segmentation and merge of the connected component after the grouping.

    Abstract translation: 一种用于对文档图像的区域分析系统应用的文档图像进行区域分析的方法,该方法包括以下步骤:a)通过减少的文档图像分析连接的组件; b)根据所连接的组件的分析结果通过生成树来对连接的组件进行分类; c)根据空间连接对来自分类的连接组件的文本组件进行分组; 以及d)通过在分组之后重复连接组件的分段和合并来改进文本块。

    논문 문서영상 구조 분석 방법
    14.
    发明授权
    논문 문서영상 구조 분석 방법 失效
    论文文件图像结构分析方法

    公开(公告)号:KR100319756B1

    公开(公告)日:2002-01-09

    申请号:KR1020000002772

    申请日:2000-01-21

    Abstract: 본 발명은 논문 문서영상 구조 분석 방법 및 그 기록매체에 관한 것으로, 인간의 지각에 의존해오던 논문 문서영상으로부터 제목, 저자, 요약 부분의 위치검출과 그 내용인식을 자동으로 수행하기 위한 논문 문서영상 구조 분석 방법 및 그 기록매체를 제공하기 위하여, 데이터베이스 검색시스템에서 논문 문서영상의 구조를 분석하는 방법에 있어서, 논문 문서영상의 영역을 분할하고, 분할된 각 영역의 속성을 분류하는 제 1 단계; 속성이 텍스트인 영역들중 요약과 서론을 나타내는 소정의 단어영역이 될 수 있는 후보영역을 설정하고, 후보영역으로부터 소정의 단어영역을 찾아 요약의 내용부분의 위치를 파악하는 제 2 단계; 기본 형식과 유형 정의(TD)를 이용하여 속성이 텍스트인 제목과 저자 부분을 분리하는 제 3 단계; 및 추출된 제목, 저자, 요약 내용을 문자인식하여 논문 문서영상의 목차를 자동으로 생성하는 제 4 단계를 포함하며, 논문의 검색 및 제공을 목적으로 하는 데이터베이스를 구축함에 있어 방대한 양의 논문관련 데이터베이스의 검색 등에 이용됨.

    문서 영상에서의 표 분석방법
    15.
    发明授权
    문서 영상에서의 표 분석방법 失效
    文件图像中的表格分析方法

    公开(公告)号:KR100277831B1

    公开(公告)日:2001-01-15

    申请号:KR1019980043240

    申请日:1998-10-15

    Abstract: 본 발명은 스캐너로 입력 받은 문서 영상에서 표(table) 영역을 찾아내고 표의 테두리선들을 내용과 분리하는 방법에 관한 것이다. 먼저, 스캐너로 입력한 문서 영상을 영역 해석하여 텍스트 영역과, 그림 영역으로 분할하고, 그림 영역으로 분할된 영역들을 흑점밀도 및 테두리선을 추출함으로써 그림 영역에서 표 영역을 분리한다.
    본 발명에 따라 표를 분석하는 방법은, 문서 영상을 텍스트 후보 영역과 그림 후보 영역으로 분리한 후, 분리된 그림 후보 영역을 분석하여 표의 테두리선들을 추출하는 문서 영상에서의 표 분석방법에 있어서, 상기 그림 후보 영역의 흑점밀도를 측정하여 표 후보 영역을 추출하는 제1단계와; 상기 표 후보 영역의 수평, 수직 테두리선을 추출하는 제2단계; 상기 표 후보 영역의 수평, 수직 테두리선 중 최외각 수평, 수직 테두리선들을 추출하고, 이를 기준으로 표 영역을 추출하는 제3단계; 및 상기 표 영역에서 제외된 표 후보 영역을 그림 영역으로 등록하는 제4단계를 포함한 것을 특징으로 한다.

    실내 네비게이션 장치 및 방법
    17.
    发明公开
    실내 네비게이션 장치 및 방법 审中-实审
    室内导航装置和方法

    公开(公告)号:KR1020170081542A

    公开(公告)日:2017-07-12

    申请号:KR1020160000700

    申请日:2016-01-04

    Inventor: 박재휘 지수영

    Abstract: 실내네비게이션장치및 방법이개시된다. 본발명에따른실내네비게이션장치는, 대상이되는영역의실내지도를지도서버로부터수신하는실내지도수신부, 사용자로부터목적지정보를입력받는입력부, 현재위치또는상기사용자로부터입력받은출발지정보와상기목적지정보를이용하여이동경로를연산하는이동경로연산부, 그리고상기연산된이동경로를특징적인식물기반으로상기실내지도상에표시하는이동경로표시부를포함한다.

    Abstract translation: 公开了一种室内导航设备和方法。 根据本发明,输入单元,用于从所述室地图接收步骤,接收单元中的目的地信息内部导航装置中,用户在接收到内部指导其从地图服务器,源信息和来自当前位置或用户接收到的目的地信息的目标区域 以及行驶路线显示单元,用于以特征车间为基础在室内地图上显示所计算的行驶路线。

    제스쳐 인식 장치 및 그 방법
    18.
    发明授权
    제스쳐 인식 장치 및 그 방법 有权
    装置和方法

    公开(公告)号:KR101653235B1

    公开(公告)日:2016-09-12

    申请号:KR1020160029869

    申请日:2016-03-11

    Abstract: 제스쳐인식장치가개시된다. 이제스쳐인식장치는입력영상으로부터사용자의얼굴영역을검출하는휴먼검출부와, 상기검출된얼굴영역을기준으로상기사용자의팔의제스쳐가발생하는제스쳐영역을설정하는제스쳐영역설정부와, 상기제스쳐영역내에존재하는상기사용자의팔 영역을검출하는팔 검출부및 상기제스쳐영역내에존재하는팔 영역의위치, 이동방향성및 형태정보를분석하여, 상기사용자의목표제스쳐를판별하는제스쳐판정부를포함한다. 이러한제스쳐인식장치에의하면, 로봇이사용자의음성을인식하기어려운원거리에서인간로봇상호작용을위한유용한수단으로활용될수 있다.

    승마시뮬레이터에서 사용자 자세 인식 장치 및 방법
    19.
    发明公开
    승마시뮬레이터에서 사용자 자세 인식 장치 및 방법 审中-实审
    用于在骑马模拟器中识别用户姿态的装置和方法

    公开(公告)号:KR1020150019963A

    公开(公告)日:2015-02-25

    申请号:KR1020130097481

    申请日:2013-08-16

    CPC classification number: A61B5/1128 A61B5/1121 A61B2503/10

    Abstract: 본 발명에 따르면, 승마시뮬레이터에서 전문가를 대상으로 수집한 승마 자세 영상을 이용하여 표준 자세 모델을 생성한 후, 사용자 승마 영상으로부터 자세 특징점을 추출하여 표준 자세 모델과 정합하고, 표준 자세 모델과의 정합을 통해 사용자의 자세를 인식하여 사용자의 승마 수준을 판단한 후, 개인 수준별 교육에 적합한 단계별 표준 자세 모델을 제시함으로써 개인별 승마 수준을 고려한 교육이 가능하도록 한다.

    Abstract translation: 根据本发明,通过使用从专家收集的骑马图像在骑马模拟器中产生标准姿态模型,并且从用户的骑马图像中提取姿势特征并与标准姿态模型进行比较。 通过与标准姿态模型的比较,确定用户的姿势来确定用户的骑马水平,并建议在阶段的标准姿态模型适合于用户的教育水平,从而使考虑到的教育 个人骑马水平。

    휴먼 정보 인식 방법 및 장치
    20.
    发明公开
    휴먼 정보 인식 방법 및 장치 审中-实审
    观察人类信息的方法与装置

    公开(公告)号:KR1020140100353A

    公开(公告)日:2014-08-14

    申请号:KR1020130013562

    申请日:2013-02-06

    CPC classification number: H04N7/18 G06K9/00335 G06K9/00369 G06K9/00664

    Abstract: The present invention relates to a method and a device for recognizing human information. The disclosed method for recognizing human information comprises a step of generating sensor data-based human information comprising the identification, the location, and the behavior information of a human body existing in a recognition space by analyzing sensor data from multiple sensor resources arranged in the recognition space; a step of generating fused human information by fusing human information from a robot and human information from the sensor data, obtained and provided through interaction between a mobile robot terminal located in the recognition space and a human located in the recognition space, according to the location of the mobile robot and the state of the interaction; and a step of storing a human module according to the fused human information with respect to the human existing in the recognition space, in a database. Accordingly, the present invention is advantageous in improving the reliability of recognition information on the identification, the location, and the behavior information of a user when a plurality of users exist, by fusing multiple sensor resources installed in the recognition space and resources from a robot.

    Abstract translation: 本发明涉及用于识别人类信息的方法和装置。 所公开的用于识别人类信息的方法包括通过分析来自布置在识别中的多个传感器资源的传感器数据,生成基于传感器数据的人类信息的步骤,该信息包括存在于识别空间中的人体的识别,位置和行为信息 空间; 根据所述位置,通过将位于所述识别空间中的移动机器人终端与位于所述识别空间中的人的位置之间的交互获得并提供的所述传感器数据,通过从所述机器人融合人类信息和人类信息来生成融合的人类信息的步骤; 的移动机器人和相互作用的状态; 以及在数据库中存储相对于存在于识别空间中的人的融合人类信息的人类模块的步骤。 因此,本发明在存在多个用户时通过融合安装在识别空间中的多个传感器资源和来自机器人的资源来提高对用户的识别,位置和行为信息的识别信息的可靠性是有利的 。

Patent Agency Ranking