캡스트럼 평균 차감 방법 및 그 장치
    11.
    发明公开
    캡스트럼 평균 차감 방법 및 그 장치 失效
    CEPSTRUM MEAN SUBTRACTION METHOD AND IET APPARATUS

    公开(公告)号:KR1020100069117A

    公开(公告)日:2010-06-24

    申请号:KR1020080127707

    申请日:2008-12-16

    Abstract: PURPOSE: A CMS(Cepstrum Mean Subtraction) method and a device thereof are provided to accurately normalize a channel property by estimating an average CMS value of the real voice section based on the CMS average value of a mute section. CONSTITUTION: A property extractor(200) extracts the properties of a mute section before a start point, a sound section, and a mute section after a finish point. A firing unit CMS value calculator(600) calculates an actual firing unit cepstrum average about the entire sound section. A cepstrum average estimator(300) estimates the cepstrum average of the entire section based on the properties of the mute section. A property vector CMS applier(400) performs channel-normalization of the estimated average. A decoder decodes the channel-normalized MFCC property vector.

    Abstract translation: 目的:提供CMS(倒谱平均减法)方法及其装置,以通过基于静音部分的CMS平均值估计真实语音部分的平均CMS值来准确地规范信道特性。 规定:属性提取器(200)在完成点之后提取起始点,声音部分和静音部分之前的静音部分的属性。 点火单元CMS值计算器(600)计算关于整个声音部分的实际发射单位倒谱平均值。 倒谱平均估计器(300)基于静音部分的属性来估计整个部分的倒谱平均值。 属性向量CMS应用程序(400)执行估计平均值的信道归一化。 解码器解码信道归一化的MFCC属性向量。

    차량용 네비게이션 단말기의 음성인식 방법
    12.
    发明公开
    차량용 네비게이션 단말기의 음성인식 방법 失效
    提供车辆导航系统中语音识别的方法

    公开(公告)号:KR1020100066917A

    公开(公告)日:2010-06-18

    申请号:KR1020080125434

    申请日:2008-12-10

    Abstract: PURPOSE: A voice recognition method of a vehicle navigation terminal is provided to generate voice emitting isoform through a simple pattern construction using a resolute/tagged result by presenting a meaning classification system for POI name domain. CONSTITUTION: A voice recognition method of a vehicle navigation terminal is as follows. The points of interest(POI) list and POI learning data are recognized from the voice information of a voice emitting isoform input to the vehicle navigation terminal (S200). A resource is built on the POI list and the POI learning data recognized(S202). The resolution and tagging on the built resource are performed with the POI list(S204). The result resolved and tagged is created as POI database(S206). Simplex/analyzed database is built based on the POI list and the POI learning data. N-gram vocabulary is extracted from the POI learning data.

    Abstract translation: 目的:提供一种车载导航终端的语音识别方法,通过呈现POI名称域的意义分类系统,通过简单的模式构造,通过坚决/标记的结果生成语音发射同种型。 构成:车辆导航终端的声音识别方法如下。 通过输入到车辆导航终端的发音同步体的语音信息来识别兴趣点(POI)列表和POI学习数据(S200)。 资源建立在POI列表和POI学习数据识别(S202)上。 使用POI列表执行内置资源的分辨率和标记(S204)。 解决和标记的结果被创建为POI数据库(S206)。 基于POI列表和POI学习数据构建S​​implex /分析数据库。 从POI学习数据中提取N-gram词汇表。

    경계 휴지강도를 이용한 발음변환 방법 및 이를 기반으로하는 음성합성 시스템
    13.
    发明公开
    경계 휴지강도를 이용한 발음변환 방법 및 이를 기반으로하는 음성합성 시스템 无效
    使用边界暂停强度转换发音的方法和基于此的语音合成系统

    公开(公告)号:KR1020080030338A

    公开(公告)日:2008-04-04

    申请号:KR1020060096296

    申请日:2006-09-29

    Inventor: 김종진 박문환

    CPC classification number: G10L13/033

    Abstract: A method for converting pronunciation using boundary pause intensity and a voice synthesizing system based on the same are provided to improve the accuracy of pronunciation conversion by generating a pronunciation conversion model in consideration of a previous pronunciation-converted formant environment as well as front/back pronunciation-converted formant environment. A synthesis database processing unit(610) processes a synthesis database such that a pronunciation variation phenomenon at a boundary of words can be reflected. A training DB generating unit(620) extracts a feature parameter from the processed synthesis database and generates a training DB. A pronunciation conversion model generating unit(630) trains the training DB based on the extracted feature parameter to generate a pronunciation conversion model, extracts a word with which a pronunciation conversion error frequently occurs in the training process, and makes an exceptional pronunciation dictionary. A pre-processing unit(640) performs pre-processing on input text. A language analyzing unit(650) receives the pre-processed input text and performs language analyzing on the same to predict a boundary intensity between words based on the language analysis result. A feature extracting unit(660) extracts a feature parameter for pronunciation conversion by using the language analysis result and the predicted inter-word boundary intensity information. A pronunciation sequence generating unit(670) generates pronunciation sequences with respect to the input text based on the pronunciation conversion model or the exceptional pronunciation dictionary. A synthesized sound generating unit(680) generates a synthesized sound with respect to the generated pronunciation sequences and outputs the same.

    Abstract translation: 提供了一种使用边界暂停强度转换发音的方法和基于该语音合成系统的语音合成系统,以通过考虑到先前的发音转换共振峰环境以及前/后发音产生语音转换模型来提高语音转换的准确性 转型共振峰环境。 合成数据库处理单元(610)处理合成数据库,使得可以反映单词边界处的发音变化现象。 训练数据库生成部(620)从处理后的合成数据库中提取特征参数,生成训练数据DB。 发音转换模型生成单元(630)基于所提取的特征参数对训练数据库进行训练以产生语音转换模型,提取在训练处理中经常发生语音转换错误的单词,并且形成例外的发音词典。 预处理单元(640)对输入文本执行预处理。 语言分析单元(650)接收预处理的输入文本,并根据语言分析结果对其进行语言分析以预测单词之间的边界强度。 特征提取单元(660)通过使用语言分析结果和预测的单词间边界强度信息来提取用于发音转换的特征参数。 发音序列生成单元(670)基于发音转换模型或异常发音字典,生成关于输入文本的发音顺序。 合成声音产生单元(680)生成关于所生成的发音序列的合成声音并输出。

    화행 정보를 이용한 대화체 음성합성 시스템 및 방법
    14.
    发明公开
    화행 정보를 이용한 대화체 음성합성 시스템 및 방법 失效
    使用语音信息合成对话式语音的系统和方法

    公开(公告)号:KR1020060067717A

    公开(公告)日:2006-06-20

    申请号:KR1020040106610

    申请日:2004-12-15

    CPC classification number: G10L13/08 G10L13/04

    Abstract: 본 발명은 화행 정보를 이용한 대화체 음성합성 시스템 및 방법에 관한 것으로서, 대화 텍스트(dialog text)에서 대화의 맥락(context)에 따라 다른 억양이 구현될 필요가 있는 표현에 대해 두 대화자의 발화 문장으로부터 추출되는 화행(speech act) 정보를 이용하여 억양을 구분하는 태깅을 수행해 주고, 음성 합성시에는 그 태그에 맞는 억양을 갖는 음성 신호를 음성데이타베이스에서 추출하여 합성에 사용함으로써 대화의 흐름에 맞는 자연스럽고 다양한 억양을 구현함으로써, 대화의 상호작용(interaction)적인 측면을 좀더 실감나게 표현할 수 있어 대화음성의 자연성의 증진 효과를 기대할 수 있다.
    대화체 음성합성시스템(Dialog-style Text-to-Speech system), 대화체 텍스트(dialog text), 음성 합성(speech synthesis), 맥락(context), 화행(speech act), 억양(intonation)

    문자의 음성변환장치 및 방법
    15.
    发明公开
    문자의 음성변환장치 및 방법 有权
    将字符转换成声音的装置和方法

    公开(公告)号:KR1020040054354A

    公开(公告)日:2004-06-25

    申请号:KR1020020081385

    申请日:2002-12-18

    Inventor: 김종진

    Abstract: PURPOSE: An apparatus and a method for converting a character into a sound are provided to congregate a list of phonemic symbols for reading as a phoneme unit and convert a Korean character inputted by a keyboard into a sound. CONSTITUTION: The charter input unit(110) receives a Korean character or a special character in the character input unit(110) from a user. A character processing unit(120) converts the character inputted through the character input unit(110) into a proper Korean language text stream. A sound conversion unit(130) reads out a combination unit coincided with the text stream inputted from the character processing unit(120) and converts the read combination unit into a sound. A sound output unit(140) outputs the converted sound. A sound data storage unit(150) stores audio data recorded sound pieces corresponding to phonemes.

    Abstract translation: 目的:提供将字符转换为声音的装置和方法,以将用于读取的音素符号列表作为音素单元进行汇总,并将由键盘输入的韩文字符转换为声音。 构成:章程输入单元(110)从用户接收字符输入单元(110)中的韩文字符或特殊字符。 字符处理单元(120)将通过字符输入单元(110)输入的字符转换为正确的韩语文本流。 声音转换单元(130)读出与从字符处理单元(120)输入的文本流一致的组合单元,并将读出的组合单元转换成声音。 声音输出单元(140)输出转换后的声音。 声音数据存储单元(150)存储与音素对应的记录声音的声音数据。

    판별 및 회귀 트리를 이용한 끊어읽기 강도 자동 레이블링방법
    16.
    发明授权
    판별 및 회귀 트리를 이용한 끊어읽기 강도 자동 레이블링방법 失效
    판별및회귀트리를이용한읽어읽기강도자동레이블링방블링블링

    公开(公告)号:KR100408650B1

    公开(公告)日:2003-12-06

    申请号:KR1020010065703

    申请日:2001-10-24

    Abstract: PURPOSE: A method for automatically labeling break strength using a classification and regression tree is provided to increase speed of labeling break strength and improve the accuracy of labeling break strength. CONSTITUTION: Voice data is received in sentences to be recorded(S11-S12). Phonemes are divided and accent is extracted from the input voice data(S13-S14). Phoneme duration and an accent value corresponding to the phoneme are extracted to extract the mean duration by phonemes and the mean accent of a speaker(S15). Seven rhythmical features are extracted by using phoneme division information and the accent value(S16). The extracted seven rhythmical features are normalized as a final mean value(S17). A result of labeling break manually is obtained(S18). A training of a classification and regression tree is executed by using the rhythmical features and the result of labeling break manually(S19). A cross confirming test is performed to measure the accuracy of labeling break strength(S20). A break strength automatic labeling rule is generated by a binary decision tree(S21). A program is terminated(S22).

    Abstract translation: 目的:提供一种使用分类和回归树来自动标注断裂强度的方法,以提高标签断裂强度的速度并提高标签断裂强度的准确性。 构成:语音数据以句子接收(S11-S12)。 划分音素并从输入语音数据中提取重音(S13-S14)。 提取与音素对应的音素持续时间和重音值以提取由音素的平均持续时间和说话者的平均口音(S15)。 通过使用音素分区信息和重音值提取七个节奏特征(S16)。 提取的七个节奏特征被归一化为最终平均值(S17)。 手动标记中断的结果被获得(S18)。 通过使用节奏特征和手动标记中断的结果来执行分类和回归树的训练(S19)。 执行交叉确认测试以测量标签断裂强度的准确性(S20)。 中断强度自动标记规则由二元决策树生成(S21)。 程序结束(S22)。

    사용자 음성을 이용한 위치 추적 장치 및 그 방법
    18.
    发明授权
    사용자 음성을 이용한 위치 추적 장치 및 그 방법 有权
    使用用户语音进行定位的装置及其方法

    公开(公告)号:KR101253610B1

    公开(公告)日:2013-04-11

    申请号:KR1020090091867

    申请日:2009-09-28

    Abstract: 본 발명은 사용자의 음성을 이용한 위치 추적 장치 및 그 방법에 관한 것으로, 입력되는 2채널의 음원 신호를 각각의 음원별로 분리하는 음원 분리부에 의해 분리된 각각의 음원 신호로부터 산란 잡음을 제거하고, 음원 위치 추적을 위해 잔여 신호 성분을 강조하도록 필터링하는 스테레오 위너 필터부, 사용자의 음성을 인식하고, 음성 인식 결과에 대한 신뢰도를 측정하는 음성 인식부, 상기 음성 인식부로부터의 음성 인식 결과와 음성 인식 결과에 대한 신뢰도에 근거하여 타겟 채널을 선택하는 채널 선택부, 타겟 채널의 신호 및 간섭 채널의 신호를 분석하여 음원 위치를 추적하는 음원 위치 추적부를 포함한다. 본 발명에 따르면, 암묵적 음원 분리 기술, 스테레오 위너 필터 기술, 음성인식 및 발화검증 기술, 음원 위치 추적 기술을 유기적으로 통합함으로써, 보다 정확하고 주변 환경에 강인한 사용자 음성 위치 추적이 가능한 이점이 있다.

    음성인식 기반 국제회의 통역 장치 및 방법
    19.
    发明授权
    음성인식 기반 국제회의 통역 장치 및 방법 失效
    解释基于国际会议语音识别的装置和方法

    公开(公告)号:KR101233655B1

    公开(公告)日:2013-02-15

    申请号:KR1020090123354

    申请日:2009-12-11

    Abstract: 영어 이해도가 다른 다양한 회의 참석자들에게 회의에 언급되는 주요 키워드들을 이해할 수 있도록 다양한 언어로 통역해 주는 음성인식 기반 국제회의 통역 장치 및 방법을 제시한다. 제시된 음성인식 기반 국제회의 통역 장치는 다자간 회의에 참가하는 회의 참가자의 사용 언어를 포함하는 회의 참가자 정보를 회의 참가자별로 미리 등록하는 회의 참가자 정보 등록부; 회의 참가자별로의 발표 내용에 따른 핵심어를 미리 등록하고, 회의 참가자의 발표에 수반하는 음성을 미리 등록된 핵심어를 기반으로 인식하여 핵심어 형태의 음성인식 결과를 출력하는 음성 인식부; 및 핵심어 형태의 음성인식 결과를 분석하여 미리 등록된 회의 참가자별로의 사용 언어에 대응되는 타겟 언어로 변환하여 출력하는 언어 번역부를 포함한다. 국제 회의 발표자에게는 자유로운 모국어 구사가 가능하도록 하고, 참석자들에게는 모국어로 통역된 텍스트 데이터 또는 합성음을 제공해 줌으로써, 원활한 국제 회의 진행 및 참석자들의 회의 내용에 대한 이해도를 높일 수 있다.

    단어별 신뢰도 문턱값에 기반한 발화 검증 장치 및 그 방법
    20.
    发明授权
    단어별 신뢰도 문턱값에 기반한 발화 검증 장치 및 그 방법 有权
    基于字特定置信阈值的话音验证装置

    公开(公告)号:KR101229108B1

    公开(公告)日:2013-02-01

    申请号:KR1020090128386

    申请日:2009-12-21

    Abstract: 본 발명은 단어별 신뢰도 문턱값에 기반한 발화 검증 장치 및 그 방법에 관한 것으로, 음성신호 입력 시 인식된 단어를 분석하여, 상기 단어와 상기 단어에 대한 반음소를 갖는 반단어로부터 해당 단어의 음소와 반음소에 대한 음소 세그먼트 정보를 추출하는 음소 세그먼트 정보 추출기, 추출된 상기 음소 및 상기 반음소에 대한 우도값(likelihood)을 계산하고, 상기 우도값으로부터 로그-우도 비율을 계산하는 우도값 계산기, 상기 음소와 상기 반음소의 로그-우도 비율에 따라 상기 인식된 단어에 대응하는 문턱값을 계산하는 문턱값 계산기, 및 상기 문턱값과 상기 우도값 계산기에 의해 산출된 로그-우도 비율을 비교하여, 그 결과에 따라 음성 인식 결과를 출력하거나 차단하는 비교기를 포함한다. 본 발명에 따르면, 음성인식 결과에 대한 단어 기반의 발화 검증 시스템에서 인식되는 단어별로 서로 다른 신뢰도 문턱값을 적용함으로써 안정적인 발화 검증 성능을 얻는 효과가 있다.

Patent Agency Ranking