이동통신 단말기 및 그 동작방법
    131.
    发明公开
    이동통신 단말기 및 그 동작방법 审中-实审
    移动通信终端和操作方法

    公开(公告)号:KR1020140099702A

    公开(公告)日:2014-08-13

    申请号:KR1020130012429

    申请日:2013-02-04

    CPC classification number: H04M1/72519 G10L15/25 H04M2250/52 H04M2250/74

    Abstract: In one embodiment of the present invention, provided is a mobile communications terminal which includes a camera module which photographs an image of a set region, a microphone module which extracts a sound generation location and sound intensity corresponding to a sound when a sound including a voice of a user is inputted, and a control module which recognizes the sound of the user based on at least one of voice intensity and a voice generation location by estimating the lip location of the user and extracting the voice intensity from the sound intensity and the voice generation location from the sound generation location corresponding to the lip location of the user.

    Abstract translation: 在本发明的一个实施例中,提供了一种移动通信终端,其包括拍摄设置区域的图像的相机模块,当包括声音的声音时提取声音生成位置和与声音相对应的声音强度的麦克风模块 以及控制模块,其通过估计用户的唇部位置并从声音强度和声音提取语音强度,基于语音强度和语音产生位置中的至少一个来识别用户的声音 来自声音生成位置的生成位置对应于用户的唇部位置。

    요약 정보 생성 방법, 장치 및 서버
    132.
    发明公开
    요약 정보 생성 방법, 장치 및 서버 审中-实审
    用于生成概要数据的方法和装置,以及用于其的服务器

    公开(公告)号:KR1020140060659A

    公开(公告)日:2014-05-21

    申请号:KR1020120127225

    申请日:2012-11-12

    Inventor: 정호영

    Abstract: The present invention relates to automatic summarizing to grasp the whole content of a multimedia material. According to the present invention, a method for generating summarized data comprises the steps of generating index information for a specific audio signal or a specific video signal among input signals; of synchronizing the index information with text information inputted for the input signal or extracted from the input signal; and of generating the first summarizing information using the synchronized text information and the index information. According to the present invention, a user can watch desired videos and can select the suitable videos by enabling the apparatus to automatically generate the summarized data of the multimedia materials. When the user does not have time for watching the whole content of a sport game, the user can grasp the game content in the short time. User convenience is improved by enabling the user to listen to music, which the user desires to purchase, in advance.

    Abstract translation: 本发明涉及自动总结以掌握多媒体素材的全部内容。 根据本发明,用于生成汇总数据的方法包括以下步骤:在输入信号之间产生特定音频信号或特定视频信号的索引信息; 使索引信息与输入信号输入或从输入信号中提取的文本信息同步; 以及使用所述同步文本信息和所述索引信息来生成所述第一摘要信息。 根据本发明,用户可以观看期望的视频,并且可以通过使设备自动生成多媒体素材的总结数据来选择合适的视频。 当用户没有时间观看运动游戏的整个内容时,用户可以在短时间内掌握游戏内容。 通过使用户可以预先听用户希望购买的音乐来改善用户便利性。

    음향 모델 생성 방법 및 그 장치
    133.
    发明公开
    음향 모델 생성 방법 및 그 장치 有权
    用于产生声学模型的方法及其装置

    公开(公告)号:KR1020140059454A

    公开(公告)日:2014-05-16

    申请号:KR1020120125935

    申请日:2012-11-08

    CPC classification number: G10L15/14 G10L15/063

    Abstract: Disclosed are an acoustic model generation method and a device thereof. According to one embodiment of the present invention, the acoustic model generation method includes: a step of generating an acoustic model using pre-collected training acoustic data; a step of performing tree-based status clustering based on the generated acoustic model and the training acoustic data; a step of forming a status tree through the tree-based status clustering; and a step of generating a final acoustic model using the log acoustic data acquired from the voice of a user and the generated status tree. The step of performing the clustering performs the tree-based status clustering based on the statistical values of context-dependent phonemes acquired from the training acoustic data and on query sets acquired through a phonetic knowledge basis so that it is possible to generate an acoustic model optimized for the actual use environment and accordingly improve voice recognition performance.

    Abstract translation: 公开了一种声学模型生成方法及其装置。 根据本发明的一个实施例,声学模型生成方法包括:使用预先收集的训练声学数据产生声学模型的步骤; 基于所生成的声学模型和训练声学数据执行基于树状态的聚类的步骤; 通过基于树状态聚类形成状态树的步骤; 以及使用从用户的语音和所生成的状态树获取的对数声学数据来生成最终声学模型的步骤。 执行聚类的步骤基于从训练声学数据获取的上下文相关音素的统计值和通过语音知识获取的查询集合来执行基于树状态的聚类,使得可以生成优化的声学模型 为实际使用环境,从而提高语音识别性能。

    사용자 인터페이스 장치 및 시스템
    134.
    发明公开
    사용자 인터페이스 장치 및 시스템 审中-实审
    用户界面的设备和系统

    公开(公告)号:KR1020140059453A

    公开(公告)日:2014-05-16

    申请号:KR1020120125934

    申请日:2012-11-08

    Abstract: The present invention relates to a user interface system for replacing a mouse or a touch pad of a PC. The user interface system according to the present invention includes: a body unit which includes a groove based on an oral structure to be mounted on the upper side of a mouth; a user input unit which receives an input through the tongue of a user on a side surface of the body unit; a communication unit which transmits the received signal; and a charger unit which provides the electricity generated by using the vibration motion or pressure from the oral exercise of the user to the user interface system. A user can interact with a computer by using a controller mounted inside his mouth in a wearable computing environment without using hands. A user who feels uncomfortable when moving hands can also use the interface.

    Abstract translation: 本发明涉及一种用于替换PC的鼠标或触摸板的用户界面系统。 根据本发明的用户界面系统包括:身体单元,其包括基于口腔结构的凹槽,所述口部结构安装在嘴的上侧; 用户输入单元,其通过身体单元的侧表面上的用户的舌头接收输入; 发送接收信号的通信单元; 以及充电器单元,其通过使用来自用户的口腔锻炼的振动运动或压力产生的电力到用户界面系统。 用户可以通过使用安装在他的嘴里的控制器在可穿戴的计算环境中与计算机交互,而不用手。 手感不舒服的用户也可以使用界面。

    엔베스트 정보 기반 문맥 종속 반음소 모델을 이용한 발화검증 장치 및 방법
    136.
    发明公开
    엔베스트 정보 기반 문맥 종속 반음소 모델을 이용한 발화검증 장치 및 방법 无效
    使用基于N-BEST信息的上下文相对抗电文模型验证UTTERANCE的装置和方法

    公开(公告)号:KR1020130068622A

    公开(公告)日:2013-06-26

    申请号:KR1020110135917

    申请日:2011-12-15

    CPC classification number: G10L15/187 G10L15/02 G10L15/04 G10L15/14

    Abstract: PURPOSE: An utterance verification device and a method thereof using N-best information based context subordination anti-phoneme model are provided to improve utterance verification performance by performing utterance verification using a context dependent anti-phoneme model generated by an N-best recognition result. CONSTITUTION: A pre-processing unit(140) extracts an end point and a feature from an input voice. A voice recognition unit(150) recognizes the voice based on context dependent phoneme model in a storage unit(120). An utterance verification unit(160) measures reliability based on the voice recognition result of the voice recognition unit and the context dependent phoneme model and context dependent anti-phoneme model. [Reference numerals] (110) Generation unit; (120) Saving unit; (130) Input unit; (140) Pre-processing unit; (150) Voice recognition unit; (160) Ignition verification unit

    Abstract translation: 目的:提供一种使用基于N最佳信息的上下文从属反音素模型的话语验证装置及其方法,以通过使用由N最佳识别结果生成的上下文相关反音素模型进行话音验证来改善话语验证性能。 构成:预处理单元(140)从输入语音提取终点和特征。 语音识别单元(150)在存储单元(120)中基于上下文相关音素模型识别语音。 话音验证单元(160)基于语音识别单元的语音识别结果和上下文相关音素模型和上下文相关的反音素模型来测量可靠性。 (附图标记)(110)生成单元; (120)保存单位; (130)输入单元; (140)预处理单元; (150)语音识别单元; (160)点火验证单元

    음성인식 오류 혼돈 행렬을 이용한 클러스터링 장치 및 그 방법
    137.
    发明公开
    음성인식 오류 혼돈 행렬을 이용한 클러스터링 장치 및 그 방법 无效
    使用语音识别错误的混淆矩阵进行聚类的装置和方法

    公开(公告)号:KR1020130068196A

    公开(公告)日:2013-06-26

    申请号:KR1020110134836

    申请日:2011-12-14

    CPC classification number: G10L15/14 G10L15/02

    Abstract: PURPOSE: A clustering apparatus which uses a voice recognition error confusion matrix and a method thereof are provided to improve the discrimination and reliability of a sound model by detecting 'high frequency error pairs which have a frequent voice recognition result error' and clustering the sound model based on a detection result. CONSTITUTION: A sound model generator(100) receives training voice data and generates a sound model. A voice recognition unit(110) performs a voice recognition based on the generated sound model, an inputted test, and user voice data. An error confusion matrix configuration unit(120) configures a confusion matrix with 'error pairs which are extracted through a comparison of the voice recognition result and enterprise data. A state clustering unit(101a) performs the state clustering of the sound model based on 'high extraction frequency error pairs which are extracted from a high frequency error pair extractor(130). [Reference numerals] (100) Sound model generator; (101a) State clustering unit; (110) Voice recognition unit; (120) Error confusion matrix configuration unit; (130) High frequency error pair extractor; (AA) Training voice data; (BB) Test and user voice data; (CC) Transfer data

    Abstract translation: 目的:提供一种使用语音识别误差混淆矩阵及其方法的聚类设备,通过检测“具有频繁语音识别结果误差的高频误差对”和聚合声音模型来提高声音模型的辨别和可靠性 基于检测结果。 构成:声音模型发生器(100)接收训练声音数据并产生声音模型。 语音识别单元(110)基于生成的声音模型,输入的测试和用户语音数据来执行语音识别。 错误混淆矩阵配置单元(120)配置具有通过语音识别结果和企业数据的比较提取的错误对的混淆矩阵。 状态聚类单元(101a)基于从高频误差对提取器(130)提取的高抽取频率误差对执行声音模型的状态聚类。 (附图标记)(100)声音模型发生器; (101a)状态聚类单元; (110)语音识别单元; (120)错误混淆矩阵配置单元; (130)高频误差对提取器; (AA)培训语音数据; (BB)测试和用户语音数据; (CC)传输数据

    사용자 음성을 이용한 위치 추적 장치 및 그 방법
    138.
    发明授权
    사용자 음성을 이용한 위치 추적 장치 및 그 방법 有权
    使用用户语音进行定位的装置及其方法

    公开(公告)号:KR101253610B1

    公开(公告)日:2013-04-11

    申请号:KR1020090091867

    申请日:2009-09-28

    Abstract: 본 발명은 사용자의 음성을 이용한 위치 추적 장치 및 그 방법에 관한 것으로, 입력되는 2채널의 음원 신호를 각각의 음원별로 분리하는 음원 분리부에 의해 분리된 각각의 음원 신호로부터 산란 잡음을 제거하고, 음원 위치 추적을 위해 잔여 신호 성분을 강조하도록 필터링하는 스테레오 위너 필터부, 사용자의 음성을 인식하고, 음성 인식 결과에 대한 신뢰도를 측정하는 음성 인식부, 상기 음성 인식부로부터의 음성 인식 결과와 음성 인식 결과에 대한 신뢰도에 근거하여 타겟 채널을 선택하는 채널 선택부, 타겟 채널의 신호 및 간섭 채널의 신호를 분석하여 음원 위치를 추적하는 음원 위치 추적부를 포함한다. 본 발명에 따르면, 암묵적 음원 분리 기술, 스테레오 위너 필터 기술, 음성인식 및 발화검증 기술, 음원 위치 추적 기술을 유기적으로 통합함으로써, 보다 정확하고 주변 환경에 강인한 사용자 음성 위치 추적이 가능한 이점이 있다.

    음성인식 기반 국제회의 통역 장치 및 방법
    139.
    发明授权
    음성인식 기반 국제회의 통역 장치 및 방법 失效
    解释基于国际会议语音识别的装置和方法

    公开(公告)号:KR101233655B1

    公开(公告)日:2013-02-15

    申请号:KR1020090123354

    申请日:2009-12-11

    Abstract: 영어 이해도가 다른 다양한 회의 참석자들에게 회의에 언급되는 주요 키워드들을 이해할 수 있도록 다양한 언어로 통역해 주는 음성인식 기반 국제회의 통역 장치 및 방법을 제시한다. 제시된 음성인식 기반 국제회의 통역 장치는 다자간 회의에 참가하는 회의 참가자의 사용 언어를 포함하는 회의 참가자 정보를 회의 참가자별로 미리 등록하는 회의 참가자 정보 등록부; 회의 참가자별로의 발표 내용에 따른 핵심어를 미리 등록하고, 회의 참가자의 발표에 수반하는 음성을 미리 등록된 핵심어를 기반으로 인식하여 핵심어 형태의 음성인식 결과를 출력하는 음성 인식부; 및 핵심어 형태의 음성인식 결과를 분석하여 미리 등록된 회의 참가자별로의 사용 언어에 대응되는 타겟 언어로 변환하여 출력하는 언어 번역부를 포함한다. 국제 회의 발표자에게는 자유로운 모국어 구사가 가능하도록 하고, 참석자들에게는 모국어로 통역된 텍스트 데이터 또는 합성음을 제공해 줌으로써, 원활한 국제 회의 진행 및 참석자들의 회의 내용에 대한 이해도를 높일 수 있다.

    단어별 신뢰도 문턱값에 기반한 발화 검증 장치 및 그 방법
    140.
    发明授权
    단어별 신뢰도 문턱값에 기반한 발화 검증 장치 및 그 방법 有权
    基于字特定置信阈值的话音验证装置

    公开(公告)号:KR101229108B1

    公开(公告)日:2013-02-01

    申请号:KR1020090128386

    申请日:2009-12-21

    Abstract: 본 발명은 단어별 신뢰도 문턱값에 기반한 발화 검증 장치 및 그 방법에 관한 것으로, 음성신호 입력 시 인식된 단어를 분석하여, 상기 단어와 상기 단어에 대한 반음소를 갖는 반단어로부터 해당 단어의 음소와 반음소에 대한 음소 세그먼트 정보를 추출하는 음소 세그먼트 정보 추출기, 추출된 상기 음소 및 상기 반음소에 대한 우도값(likelihood)을 계산하고, 상기 우도값으로부터 로그-우도 비율을 계산하는 우도값 계산기, 상기 음소와 상기 반음소의 로그-우도 비율에 따라 상기 인식된 단어에 대응하는 문턱값을 계산하는 문턱값 계산기, 및 상기 문턱값과 상기 우도값 계산기에 의해 산출된 로그-우도 비율을 비교하여, 그 결과에 따라 음성 인식 결과를 출력하거나 차단하는 비교기를 포함한다. 본 발명에 따르면, 음성인식 결과에 대한 단어 기반의 발화 검증 시스템에서 인식되는 단어별로 서로 다른 신뢰도 문턱값을 적용함으로써 안정적인 발화 검증 성능을 얻는 효과가 있다.

Patent Agency Ranking