화행 정보를 이용한 음성 인식 방법
    51.
    发明公开
    화행 정보를 이용한 음성 인식 방법 失效
    使用语音特征信息识别语音的方法

    公开(公告)号:KR1020000037625A

    公开(公告)日:2000-07-05

    申请号:KR1019980052256

    申请日:1998-12-01

    Abstract: PURPOSE: A method for recognizing voice using speech characteristic information is provided to estimate current speech characteristic information using the speech characteristic previously recognized. CONSTITUTION: A method for recognizing voice using speech characteristic information includes first thru forth steps. At the first step(401), a speech characteristic estimation parameter for estimating current speech characteristic using previous speech characteristic recognized is calculated. At the second step(403), the speech characteristic estimation parameter from the first step is applied on a language mode. At the third step(404), input voice is first recognized, and current speech characteristic is estimated using the first recognized result. At the forth step, the first recognized result is recalculated using the estimated speech characteristic information.

    Abstract translation: 目的:提供使用语音特征信息识别语音的方法,以使用先前识别的语音特征来估计当前语音特征信息。 构成:使用语音特征信息识别语音的方法包括第一步骤。 在第一步骤(401)中,计算用于使用所识别的先前语音特征来估计当前语音特性的语音特性估计参数。 在第二步骤(403)中,来自第一步骤的语音特征估计参数被应用于语言模式。 在第三步骤(404)中,首先识别输入语音,并且使用第一识别结果来估计当前语音特征。 在第四步骤中,使用估计的语音特征信息重新计算第一识别结果。

    텍스트/음성 변환기에서 신경망을 이용한 에너지컨투어 생성 방법
    52.
    发明公开
    텍스트/음성 변환기에서 신경망을 이용한 에너지컨투어 생성 방법 无效
    如何在文本到语音转换器中使用神经网络生成能量轮廓

    公开(公告)号:KR1019990047332A

    公开(公告)日:1999-07-05

    申请号:KR1019970065689

    申请日:1997-12-03

    Abstract: 본 발명은 텍스트/음성 변환기(text-to-speech conversion system)에서 신경망을 이용한 에너지 컨투어 생성 방법에 관한 것이다.
    종래 합성기는 입력된 텍스트로부터 합성음을 생성하는데 있어서 에너지 컨투어 제어를 인접한 합성단위간의 에너지 컨투어 평활화와 강세 정도의 처리 만을 하고 있다. 그러므로 종래의 텍스트/음성변환기 방식을 이용하여 문장단위의 에너지 컨투어를 제어하기는 불가능하다.
    따라서, 본 발명은 음운환경, 단어간 끊어읽기, 앞/현재/뒤 단어의 평균 피치값을 입력으로 하는 다층신경망을 이용한 학습방법을 사용하여 문장내 음절의 에너지값을 추정, 합성음 생성에 사용함으로써 합성음의 자연성 구현을 그 목적으로 한다. 본 발명은 입력 텍스트에 대한 언어처리 결과를 입력받아서 문장내 음절의 에너지값을 출력하는 다층신경망을 이용하여 실제 음성데이타의 음절 에너지값으로 학습하고, 학습 결과를 이용하여 텍스트/음성 변환기에서 문장단위의 에너지 컨투어를 생성하는 방식을 통해 문장내 에너지 변화를 제어함으로써 합성음의 자연성이 향상되므로 텍스트/음성 변환기의 자연성이 요구되는 응용분야인 통신 서비스, 사무 자동화, 교육 등의 여러 분야에 응용할 수 있는 효과가 있다.

    신경망을 이용한 유성음, 무성음, 묵음 구간 부류화 장치 및 방법
    53.
    发明公开
    신경망을 이용한 유성음, 무성음, 묵음 구간 부류화 장치 및 방법 无效
    使用神经网络发声,无声,无声部分的设备和方法

    公开(公告)号:KR1019990043142A

    公开(公告)日:1999-06-15

    申请号:KR1019970064129

    申请日:1997-11-28

    Inventor: 서영주 박준

    Abstract: 1. 청구범위에 기재된 발명이 속한 기술분야
    본 발명은 신경망을 이용한 유성음, 무성음, 묵음 구간 부류화 장치 및 방법에 관한 것임.
    2. 발명이 해결하려고 하는 기술적 과제
    본 발명은, 특징 파라메터들을 입력으로 하는 예측 재귀 신경망을 이용하여 유성음, 무성음, 및 묵음의 여부를 프레임별로 판정하여, 출력하는 유성음, 무성음, 묵음 구간 부류화 장치 및 방법을 제공하고자 함.
    3. 발명의 해결방법의 요지
    본 발명은, 음성을 디지털 신호로 변환하는 신호 입력 수단과, 특징 파라메터를 추출하는 특징 파라메터 추출 수단과, 분석할 프레임이 유성음인지 무성음인지 묵음인지의 여부를 판정하는 판정 수단, 및 판정 정보를 입력받아 시간 프레임마다 출력을 하거나, 입력의 시작부터 종료까지를 묶어 일률적으로 출력하는 유성음/무성음/묵음 정보 출력 수단을 포함한다.
    4. 발명의 중요한 용도
    본 발명은 음성 인식 장치, 음성 합성 장치, 음성 분석 장치에 이용됨.

    음소별 화자 종속 변이음 모델링 방법
    54.
    发明公开
    음소별 화자 종속 변이음 모델링 방법 失效
    音素依存变异的音素建模方法

    公开(公告)号:KR1019990011493A

    公开(公告)日:1999-02-18

    申请号:KR1019970034598

    申请日:1997-07-23

    Abstract: 1. 청구 범위에 기재된 발명이 속한 기술분야
    본 발명은 음소별 화자 종속 변이음(allophone) 모델링 방법에 관한 것임.
    2. 발명이 해결하려고 하는 기술적 과제
    본 발명은 각 음소별로 화자 특성을 고려할 수 있는 음성 단위 선정 방법으로서 문맥 및 화자를 동시에 모두 고려한 음소별 화자 종속 변이음(allophone) 모델링 방법을 제공하고자 함.
    3. 발명의 해결방법의 요지
    본 발명은, 음성 인식기에 적용되는 음성 모델링 방법에 있어서, 각 음소별 음성 데이터의 특징 벡터열을 읽어, 트랜스크립션과 발음 사전을 이용하여 문맥 정보를 얻은 후에 각 자료의 화자를 식별하는 제 1 단계; 주어진 데이터를 문맥과 화자에 따라 두 개의 그룹으로 나눈 후에 나누어진 그룹의 적합성을 측정하는 과정을 반복하는 제 2 단계; 및 나뉘어진 그룹의 샘플의 갯수가 소정의 값 이상인 그룹이 존재하면 두 개의 그룹으로 나누는 과정을 계속하고, 그러한 그룹이 더 이상 존재하지 않으면 종료하는 제 3 단계를 포함한다.
    4. 발명의 중요한 용도
    본 발명은 음성 인식기에 이용됨.

    대면 자동통역상황에서 자동통역서비스 제공 방법과 그 장치
    55.
    发明公开
    대면 자동통역상황에서 자동통역서비스 제공 방법과 그 장치 审中-实审
    在面对面情况下提供自动语音翻译服务的方法和装置

    公开(公告)号:KR1020160131855A

    公开(公告)日:2016-11-16

    申请号:KR1020160000860

    申请日:2016-01-05

    Abstract: 본발명은자동통역서비스에관한것으로써, 본발명에따른자동통역서비스제공방법은, 사용자의자동통역기기가무선통신을위한신호의강도를바탕으로주변의자동통역기기를검색하는단계; 검색된상기자동통역기기와자동통역을위한정보를교환하는단계; 상기자동통역정보와상기신호강도를이용하여자동통역을위한후보기기의리스트를생성하는단계; 및상기생성된리스트상의기기들중 신호강도의변화량이가장큰 후보기기와연결하는단계를포함하는것을특징으로한다.

    음성인식결과 문장에 대한 문형분류장치 및 방법
    56.
    发明授权
    음성인식결과 문장에 대한 문형분류장치 및 방법 有权
    用于分类语音识别结果句子模式的装置和方法

    公开(公告)号:KR101295642B1

    公开(公告)日:2013-08-13

    申请号:KR1020090120657

    申请日:2009-12-07

    Abstract: 본 발명은 음성인식결과 문장에 대한 문형분류장치 및 방법에 관한 것으로, 화자의 발성에 의해 입력된 음성을 인식하고, 음성 인식 결과에 의한 텍스트 문장을 대상으로 형태소를 분석하여, 형태소 분석 결과로부터 해당 문장의 문형을 분류하고, 문형 분류 결과에 따라 해당 문장의 말미에 문장 부호를 추가하는 의미분석모듈을 포함하며, 문장 부호가 추가된 문장을 타겟 언어로 번역하여 그에 대응하는 음성합성음을 출력한다. 본 발명에 따르면, 전체 자동통역 과정 중에서, 음성인식결과 및 이를 입력으로 하는 자동번역에 이르는 과정에서 음성인식결과에 의한 텍스트 문장의 문형을 분류하기 위한 것으로, 음성인식결과의 문형을 식별해 줌으로써, 자동번역 입력문의 문형정보를 보다 정확히 제공하게 되며, 궁극적으로 소스언어를 타겟언어로 자동통역하는 것이 원활히 이루어지게 되는 효과가 있다.

    음향 모델 생성 장치 및 방법
    57.
    发明公开
    음향 모델 생성 장치 및 방법 无效
    用于创建声学模型的装置和方法

    公开(公告)号:KR1020120045582A

    公开(公告)日:2012-05-09

    申请号:KR1020100107205

    申请日:2010-10-29

    CPC classification number: G10L15/144 G10L15/285

    Abstract: PURPOSE: A sound model generating apparatus and a method thereof are provided to automatically search for a penalty value about complexity of a sound model of an MDL(Minimum Description Length) standard. CONSTITUTION: A binary tree generating unit(101) generates a binary tree by repetition of Gaussian components in an HMM(Hidden Markov Model) state based on distance standards. An information generating unit(102) generates the maximum scale information of the sound model according to a platform(111) including a sound recognition unit(112). A binary tree reduction unit(103) reduces the binary tree according to the maximum scale information of the sound model.

    Abstract translation: 目的:提供一种声音模型生成装置及其方法,以自动搜索关于MDL(最小描述长度)标准的声音模型的复杂度的惩罚值。 构成:二叉树生成单元(101)通过基于距离标准在HMM(隐马尔可夫模型)状态中重复高斯分量来生成二叉树。 信息生成单元(102)根据包括声音识别单元(112)的平台(111)生成声音模型的最大比例信息。 二叉树缩小单元(103)根据声音模型的最大比例信息来减少二叉树。

    패턴 데이터베이스화 장치 및 그 방법, 이를 이용한 음성 이해 장치 및 그 방법
    58.
    发明公开
    패턴 데이터베이스화 장치 및 그 방법, 이를 이용한 음성 이해 장치 및 그 방법 有权
    数据库建筑设备及其方法,其使用的语音理解设备及其方法

    公开(公告)号:KR1020110024075A

    公开(公告)日:2011-03-09

    申请号:KR1020090081936

    申请日:2009-09-01

    CPC classification number: G06F17/2755 G06F17/2785 G10L15/1815

    Abstract: PURPOSE: A pattern database apparatus and method thereof and a voice recognition apparatus are provided to output a corrected voice recognition result by using a pattern-based semantic representation. CONSTITUTION: A pattern database apparatus(100) analyzes syntax after analyzing a morpheme according to a voice recognition result. The pattern database apparatus recognizes and extracts additional information. A volume expression, a meaningless expression, and additional information are changed after performing a class change. A voice recognition result is outputted after producing a sentence.

    Abstract translation: 目的:提供一种图案数据库装置及其方法和语音识别装置,以通过使用基于模式的语义表示来输出校正的语音识别结果。 构成:模式数据库装置(100)根据语音识别结果分析语素后分析语法。 模式数据库装置识别并提取附加信息。 执行类更改后,更改卷表达式,无意义表达式和附加信息。 语音识别结果在产生句子后输出。

    다중 탐색 기반의 음성 인식 장치 및 그 방법
    59.
    发明公开
    다중 탐색 기반의 음성 인식 장치 및 그 방법 有权
    基于多搜索的语音识别装置及其方法

    公开(公告)号:KR1020100067727A

    公开(公告)日:2010-06-22

    申请号:KR1020080126244

    申请日:2008-12-12

    Abstract: PURPOSE: A voice recognition unit and a method thereof of a multiple search base for performing a multi-search about the input speech signal of the multiple search base are provided to improve voice recognition performance about the voice signal by using FSN(Finite State Network) mode and N-gram mode. CONSTITUTION: A speech feature extracting block(102) extracts feature data about the inputted voice signal. A language model database(108) stores the FSN language model and N-gram language model. A multi-search block(104) is parallel performed the first voice search and the second voice search. The multiple search block is created in the integration search network. The multiple search block outputs the voice recognition result according to the third voice search.

    Abstract translation: 目的:提供一种用于执行关于多个搜索库的输入语音信号的多次搜索的多重搜索基的语音识别单元及其方法,以通过使用FSN(有限状态网络)来改善关于语音信号的语音识别性能, 模式和N-gram模式。 构成:语音特征提取块(102)提取关于输入的语音信号的特征数据。 语言模型数据库(108)存储FSN语言模型和N-gram语言模型。 多搜索块(104)并行执行第一语音搜索和第二语音搜索。 多个搜索块在集成搜索网络中创建。 多重搜索块根据第三语音搜索输出语音识别结果。

    도메인 온톨로지를 이용한 음성 인식 방법 및 그 장치
    60.
    发明公开
    도메인 온톨로지를 이용한 음성 인식 방법 및 그 장치 有权
    通过使用领域本体论进行语音识别的方法和装置

    公开(公告)号:KR1020100066978A

    公开(公告)日:2010-06-18

    申请号:KR1020080125524

    申请日:2008-12-10

    CPC classification number: G10L15/1815 G10L15/183

    Abstract: PURPOSE: A method and a device for voice recognition using domain ontology are provided to build a domain ontology of voice recognition target and generate voice recognition grammar applying the built domain ontology and recognize voice through the voice recognition grammar, thereby improving performance of voice recognition device. CONSTITUTION: If a voice signal is inputted through a mike, a feature extraction unit extracts specific vector of a frame unit from the voice signal(S401). A sound model unit provides voice model to a voice recognition unit through modeling the signal characteristic of the voice signal(S403). The voice recognition unit performs voice recognition through a voice model, a voice recognition dictionary(S405), and voice recognition grammar(S407)(S409).

    Abstract translation: 目的:提供一种使用域本体进行语音识别的方法和装置,构建语音识别目标的领域本体,并通过语音识别语法生成应用建立的域本体并识别语音的语音识别语法,从而提高语音识别设备的性能 。 构成:如果通过麦克风输入语音信号,则特征提取单元从语音信号中提取帧单位的特定向量(S401)。 声音模型单元通过对语音信号的信号特征进行建模来向语音识别单元提供语音模型(S403)。 语音识别单元通过语音模型,语音识别字典(S405)和语音识别语法(S407)进行语音识别(S409)。

Patent Agency Ranking