음성합성장치 및 방법
    61.
    发明公开
    음성합성장치 및 방법 失效
    生产语音的装置和方法

    公开(公告)号:KR1020100062825A

    公开(公告)日:2010-06-10

    申请号:KR1020090026451

    申请日:2009-03-27

    Abstract: PURPOSE: A voice synthesis device and a method thereof are provided, in which the parametric value of the voice section of low reliability among the composite tone of the voice recognition unit is readjusted automatically. CONSTITUTION: A text voice composition unit(200) outputs the first composite sound by the synthesis of the inputted text sentence. A voice recognition unit(202) performs the first voice recognition in the state that the neighboring noise is added to the first composite sound. The voice recognition unit readjusts the voice parameter value about the voice section where the voice recognition reliability value is lower than the fixation standard. A voice composition unit(204) outputs the second composite tone by changed voice parameter value and the recognized voice.

    Abstract translation: 目的:提供一种语音合成装置及其方法,其中自动地重新调整语音识别单元的复合音调中的低可靠性的语音部分的参数值。 构成:文本语音合成单元(200)通过合成输入的文本句子来输出第一复合声音。 语音识别单元(202)在相邻噪声被添加到第一复合声音的状态下执行第一语音识别。 语音识别单元重新调整声音识别可靠性值低于固定标准的声音部分的语音参数值。 语音合成单元(204)通过改变的语音参数值和识别的语音输出第二复合音调。

    음소 인식 기반의 탐색공간 제한을 이용한 연속음성인식장치 및 방법
    62.
    发明授权
    음소 인식 기반의 탐색공간 제한을 이용한 연속음성인식장치 및 방법 有权
    음소인식기반의탐색공간제한을이용한연속음성인식장치및방

    公开(公告)号:KR100908444B1

    公开(公告)日:2009-07-21

    申请号:KR1020070070733

    申请日:2007-07-13

    Abstract: 본 발명은 음소 인식 기반의 탐색공간 제한을 이용한 연속음성인식 장치 및 방법에 관한 것으로, 음소 인식 결과를 기반으로 단어의 경계 부분에서 천이될 연결 단어를 제한하는 방식으로 탐색공간을 1차적으로 줄이는 한편, 천이될 연결 단어가 음소 인식 결과와 얼마나 유사한지를 음소 코드를 통해 빠르게 계산하여 유사도가 소정 기준값 이상인 연결 단어에 대해서만 단어 천이를 수행하여 탐색공간을 2차적으로 줄여 음성인식을 수행함으로써, 다양한 음성인식 서비스에 있어서 음성인식 속도와 성능을 개선할 수 있는 것을 특징으로 한다.
    음소 인식, 단어인식, 음성 인식

    Abstract translation: 提供了基于音素识别的搜索空间限制的连续语音识别装置及其方法,以通过在主要语音识别阶段中执行音素识别来提高语音识别速度和性能,将连接词限制为 基于二级语音识别阶段中的音素识别结果在单词的边界部分中发送,减小搜索空间并执行语音识别。 语音特征提取单元(110)从输入的语音信号中提取特征向量。 音素识别单元(120)基于语音信号的特征矢量识别音素。 基于音素的语音识别单元(150)基于音素识别结果来配置其中搜索空间被限制的连接词搜索网络,并且基于连接词搜索网络来执行语音识别。

    다단계 음성인식 장치 및 그 장치에서의 다단계 음성인식방법
    63.
    发明公开
    다단계 음성인식 장치 및 그 장치에서의 다단계 음성인식방법 有权
    多阶段语音识别装置的多级语音识别装置和多级语音识别方法

    公开(公告)号:KR1020090062684A

    公开(公告)日:2009-06-17

    申请号:KR1020070130077

    申请日:2007-12-13

    Abstract: A multi-step speech recognition apparatus and a multi-step speech recognition method at the multi-step speech recognition apparatus are provided to determine a final recognition word string by reflecting the word string and reliability of optimal N phoneme series, obtained through phoneme recognition performance, to a word string recognition result, thereby improving the performance of voice recognition. A voice feature extracting unit(110) extracts voice feature data from an inputted voice signal. A phoneme recognition unit(120) determines optimal N phoneme series which are most close to the extracted voice feature data. A word recognition unit(130) acquires a word string for each of the optimal N phoneme series. By utilizing an accumulation likelihood value, a reliability extracting unit(140) extracts reliability for each of the optimal N phoneme series. A final recognition result determining unit(150) determines a final recognition word string based on the each extracted reliability and the acquired N word strings.

    Abstract translation: 提供了一种多步语音识别装置和多步语音识别装置,通过反映通过音素识别性能获得的最佳N个音素系列的字串和可靠性来确定最终识别字串 ,以字符串识别结果,从而提高语音识别的性能。 语音特征提取单元(110)从输入的语音信号中提取语音特征数据。 音素识别单元(120)确定最接近所提取的语音特征数据的最佳N个音素系列。 字识别单元(130)获取每个最佳N个音素系列的字串。 通过利用累积似然值,可靠性提取单元(140)提取每个最优N个音素系列的可靠性。 最终识别结果确定单元(150)基于每个提取的可靠性和所获取的N个字串来确定最终的识别字串。

    화상 분석을 이용한 음성 인식 방법 및 장치
    64.
    发明授权
    화상 분석을 이용한 음성 인식 방법 및 장치 失效
    화상분석을이용한음성인식방법및장치

    公开(公告)号:KR100873920B1

    公开(公告)日:2008-12-17

    申请号:KR1020060109438

    申请日:2006-11-07

    Abstract: A method and an apparatus for recognizing voice by using the image analysis are provided to remove the unnecessary voice noise by means of the screen information including the nose among the screen information when speaking. A process for receiving sound and a speaking screen of a speaker is performed(301). The receives sound is analyzed(303). A process for selecting at least one moving section among the received speaking screen of the speaker is performed. A process for selecting at least one speaking candidate section corresponding to at least one selected moving section is performed. Thereafter, a process for determining a speaking screen section among at least one speaking screen candidate sections corresponding to the predetermined reference screen is performed. The analyzed sound is discriminated as the sound signal corresponding to the speaking screen section and thereafter, a voice recognition process is performed(309).

    Abstract translation: 提供了一种通过使用图像分析来识别语音的方法和设备,以在讲话时通过屏幕信息中的包括鼻子的屏幕信息去除不必要的语音噪音。 执行用于接收讲话者的声音和讲话画面的过程(301)。 分析接收声音(303)。 执行在接收到的讲话者的讲话画面中选择至少一个移动部分的过程。 执行用于选择对应于至少一个选择的移动部分的至少一个说出候选部分的过程。 此后,执行用于确定对应于预定参考屏幕的至少一个发言屏幕候选区间中的发言屏幕区段的过程。 分析的声音被辨别为对应于发言屏幕部分的声音信号,之后,执行语音识别过程(309)。

    대응 문형 패턴 기반 자동통역 방법 및 장치
    65.
    发明授权
    대응 문형 패턴 기반 자동통역 방법 및 장치 失效
    基于相应句型的自动语音翻译方法和装置

    公开(公告)号:KR100859532B1

    公开(公告)日:2008-09-24

    申请号:KR1020060108979

    申请日:2006-11-06

    CPC classification number: G10L15/18 G06F17/2872 G10L13/10

    Abstract: 자동통역을 실현함에 있어서, 간단한 구조로 정확한 통역성능을 얻기 위한 장치 및 방법이 개시된다. 자동통역은 입력되는 문장과 출력되는 문장이 각각 다른 언어이므로, 각 언어를 처리하는 기술이 요구되며, 기능적으로 유사한 작업이라 하더라도 각 언어에 대하여 반복적으로 수행하게 되어 전체 작업이 복잡하게 된다. 그런데, 자동통역에서 입력문장과 출력문장은 서로 다른 언어이지만 그 의미는 같아야 하며, 어휘나 문장 형태에 대응관계가 존재한다. 이 점을 토대로, 본 발명에서는 자동통역 처리과정에서 언어간 대응관계를 단순한 구조로 표현하고 이를 활용함으로써, 처리 과정상에서 일관성을 유지하고, 불필요한 중복작업을 피하며, 오류가능성을 감소시켜 성능을 향상시킨다.
    문형패턴, 통역, 문형네트워크, 대응 문형관계, 대역어휘, 문형 운율정보

    화상 분석을 이용한 음성 인식 방법 및 장치
    66.
    发明公开
    화상 분석을 이용한 음성 인식 방법 및 장치 失效
    使用图像分析的语音识别的方法和装置

    公开(公告)号:KR1020080041397A

    公开(公告)日:2008-05-13

    申请号:KR1020060109438

    申请日:2006-11-07

    Abstract: A method and an apparatus for recognizing voice by using the image analysis are provided to remove the unnecessary voice noise by means of the screen information including the nose among the screen information when speaking. A process for receiving sound and a speaking screen of a speaker is performed(301). The receives sound is analyzed(303). A process for selecting at least one moving section among the received speaking screen of the speaker is performed. A process for selecting at least one speaking candidate section corresponding to at least one selected moving section is performed. Thereafter, a process for determining a speaking screen section among at least one speaking screen candidate sections corresponding to the predetermined reference screen is performed. The analyzed sound is discriminated as the sound signal corresponding to the speaking screen section and thereafter, a voice recognition process is performed(309).

    Abstract translation: 提供一种通过使用图像分析来识别语音的方法和装置,用于通过在讲话时屏幕信息中包括鼻子的屏幕信息来消除不必要的语音噪声。 执行用于接收扬声器的声音和说话屏幕的处理(301)。 分析接收声音(303)。 执行用于在接收到的说话者的讲话屏幕中选择至少一个移动部分的处理。 执行用于选择与至少一个选择的移动部分对应的至少一个说话候选部分的处理。 此后,执行用于确定与预定参考屏幕相对应的至少一个说话屏幕候选部分中的说话屏幕部分的处理。 所分析的声音被识别为对应于说话屏幕部分的声音信号,此后,执行语音识别处理(309)。

    기계번역 시스템의 성능을 평가하기 위한 핵심어 전달율측정 방법
    67.
    发明授权
    기계번역 시스템의 성능을 평가하기 위한 핵심어 전달율측정 방법 失效
    用于测量机器翻译系统评估的关键字传输比率的方法

    公开(公告)号:KR100556607B1

    公开(公告)日:2006-03-06

    申请号:KR1020040057196

    申请日:2004-07-22

    Abstract: 본 발명은 기계번역 시스템의 성능평가를 위한 핵심어 전달율 측정 방법에 관한 것이다. 본 발명은 기계번역 시스템에서 번역 대상인 원시 언어 문장의 형태소 분석결과를 이용하여 핵심어를 선정하고, 그 핵심어가 번역 결과인 목적 언어 문장에 전달된 정도를 측정, 핵심어 전달율 값을 얻고, 이를 통해 기계번역 시스템의 성능을 평가하기 위한 목적을 가진다. 본 발명의 핵심어 전달율 측정 방법은, (a) 번역 대상의 원시 언어 문장의 형태소를 분석하는 단계; (b) 소정의 분류 기준에 따라 상기 단계 (a)에서 얻어진 형태소 단위에서 핵심어를 선정하는 단계; (c) 상기 단계 (b)에서 선정된 핵심어에 해당하는 대역 아이템을 미리 준비되어 있는 원시-목적 언어의 대역 사전을 통해 검색하여 얻는 단계; (d) 기계번역 결과인 목적 언어 문장에 상기 단계 (c)에서 추출한 대역 아이템이 전달된 정도를 측정하는 단계; 및, (e) 평가 대상인 모든 코퍼스에 대해 상기 단계 (a) 내지 단계 (d)를 반복적으로 수행하고, 그 평균값을 이용하여 평가 대상인 코퍼스 전체에 대한 핵심어 전달율을 구하는 단계를 포함하는 것을 특징으로 한다.
    기계번역 시스템(Machine Translation), 성능평가(Evaluation), 핵심어, 전달율

    단어레벨의 통계적 방법을 이용한 번역문 생성 방법 및 그장치
    68.
    发明授权
    단어레벨의 통계적 방법을 이용한 번역문 생성 방법 및 그장치 失效
    使用字级统计信息的机器翻译方法及其装置

    公开(公告)号:KR100487716B1

    公开(公告)日:2005-05-03

    申请号:KR1020020079265

    申请日:2002-12-12

    Inventor: 최미란 박준

    Abstract: 본 발명에 의한 단어레벨의 통계적 방법을 이용한 번역문 생성 방법 및 그 장치는 대상 언어 코퍼스로부터 통계적으로 순서 정보를 생성하여 저장하는 단계; 대역 사전 데이터베이스를 구비하는 단계; 원시 언어 문장을 입력받아 형태소를 분석하는 단계; 상기 형태소별로 구분된 상기 원시 언어 문장을 구성하는 소정의 제1품사들에 해당하는 단어들을 변수화하고 소정의 제2품사들에 해당하는 단어들은 은닉한 후 형태소가 태깅된 문장으로 구성하는 단계; 상기 태깅된 문장을 입력받아 상기 대역 사전 데이터베이스로부터 해당되는 형태소별로 대상 언어 단어로 교체하고, 상기 대상 언어로 교체된 문장의 단어를 상기 순서 정보를 기초로 배열하는 단계; 상기 변수화된 품사의 원래의 단어를 복구하여 상기 교체된 대상 언어에 삽입하고 상기 은닉된 단어들을 복원하는 단계; 및 상기 태깅을 제거한 후 상기 원시 언어 문장 및 대상 언어의 특성에 따른 생성정보를 기초로 번역문을 출력하는 단계;를 포함하는 것을 특징으로 하며, 대화체 영역에서 대규모 대상 언어 코퍼스를 이용하여 통계적 방식으로 추출한 순서정보 데이터 베이스를 구성한 후 이용하여 번역문을 생성함으로써 고품질 및 고속의 번역문 생성이 가능하다.

    원시언어를 대상언어로 번역하기 위한 번역엔진 장치 및 그 번역방법
    69.
    发明公开
    원시언어를 대상언어로 번역하기 위한 번역엔진 장치 및 그 번역방법 失效
    用于将资源语言翻译成对象语言和翻译方法的翻译引擎设备

    公开(公告)号:KR1020040050394A

    公开(公告)日:2004-06-16

    申请号:KR1020020078215

    申请日:2002-12-10

    Abstract: PURPOSE: A translation engine device for translating a source language into an object language and a translation method therefor are provided to use a dialogue sentence in several domain environment and accurately translate the source language inputted by a user into the object language. CONSTITUTION: A mapping table(408) stores a cluster of an object language mapped with a cluster of a source language. A DTST(Direct Translation Sentence Table) direct translation unit(401) directly translates a sentence capable of direct translation in an inputted source language sentence. A pre-processing module(402) maintains a kernel language of the source language sentence through the morpheme analysis of the source language sentence, hides the other portions, and simplifies the structure of the sentence. A clustering unit(404) divides the source language sentence into clusters. A mapping unit(405) decides the cluster of the object language mapped to the cluster of the source language using the mapping table(408). A post-processing and generating unit(406) reallocates the order of the clusters of the object language, and recovers the object language as a completed sentence form.

    Abstract translation: 目的:提供用于将源语言翻译成对象语言的翻译引擎设备及其翻译方法,以在多个域环境中使用对话语句,并将用户输入的源语言准确地翻译成对象语言。 构成:映射表(408)存储与源语言的集群映射的对象语言的集群。 DTST(直译翻译句)直接翻译单元(401)直接翻译能够在输入的源语言句中直接翻译的句子。 预处理模块(402)通过源语句的语素分析维护源语言句的内核语言,隐藏其他部分,并简化了句子的结构。 聚类单元(404)将源语句划分成簇。 映射单元(405)使用映射表(408)来确定映射到源语言的集群的对象语言的集群。 后处理和生成单元(406)重新分配对象语言的簇的顺序,并将对象语言恢复为完整的句子形式。

    합성 데이터베이스 경량화를 위한 불필요한 합성단위 제거방법
    70.
    发明授权
    합성 데이터베이스 경량화를 위한 불필요한 합성단위 제거방법 失效
    综合数据库减重的不必要的组合单元去除方法

    公开(公告)号:KR100327903B1

    公开(公告)日:2002-03-09

    申请号:KR1020000003876

    申请日:2000-01-27

    Abstract: 본 발명은 대용량 음성데이터베이스를 기반으로 하는 음성합성방식에 있어 불필요한 합성단위를 제거하는 방법에 관한 것으로, 음성 합성기에 대용량 텍스트를 입력하여 음성합성을 수행하는 단계; 합성단위 선정모듈 파라미터(피치, 지속시간, 켑스트럼, 에너지)의 가중치를 청각실험으로 튜닝하는 단계; 합성단위 선정모듈 파라미터를 이용하여 DP(Dynamic Programming) 거리 계산에 의해 최적 합성단위 후보열을 선정하는 단계; 선정된 합성단위 후보의 누적 이용빈도를 계산하는 단계; 합성음질에 영향을 끼치지 않는 최대 빈도수를 결정하는 단계; 평가문장을 사용하여 최대 빈도수 보다 빈도가 작은 합성단위 후보를 제거하기 전과 제거 후의 합성음질을 비교하여 합성음질에 영향을 끼치지 않는 최대 빈도수를 최종 결정하는 단계; 및 최종 결정된 최대 빈도수 보다 작은 빈도수를 가진 후보를 음성 데이터베이스로부터 제거하는 단계를 포함하는 합성 데이터베이스 경량화를 위한 불필요한 합성단위 제거 방법을 제공한다.
    본 발명은 대용량의 텍스트 코퍼스를 합성하여 합성에 이용된 빈도가 낮은 합성단위 후보를 합성 데이터베이스에서 제거함으로써 합성음질에 거의 영향을 주지않고 합성단위가 차지하는 메모리의 크기를 줄일 수 있으며 합성 수행속도도 개선시킬 수 있다.

Patent Agency Ranking