Abstract:
A confusion matrix based utterance verification method and an apparatus thereof are provided to select a phoneme with high discrimination by using a probability value of a confusion matrix as a weight for a likelihood value of a mono phone model. By performing viterbi decoding by using a context dependent phoneme mode, an inputted voice is recognized(307). A likelihood value of each phoneme, included in a pre-trained context independence phoneme model, and each phoneme, included in the voice-recognized character string as a voice recognition result, is calculated(309). Reliability for the voice-recognized character string is measured based on the calculated likelihood value of each phoneme and the pre-calculated probability value of the confusion matrix(311). It is determined whether to grant or reject the voice-recognized character string based on the measured reliability(313,315,317).
Abstract:
본 발명은 고빈도 의사형태소열을 하나의 인식단위로 활용하여, 의사형태소와 어절의 중간형태의 인식단위를 생성하도록 하는 대화체 및 낭독체 대어휘 연속음성인식시스템의 고빈도 어휘열 인식단위 생성장치 및 그 방법에 관한 것이다. 이와 같은 본 발명은 의사형태소 태깅된 텍스트 코퍼스로부터 연속된 어휘쌍 빈도정보를 추출하는 빈도정보 추출부(301)와, 상기 빈도정보 추출부(301)에서 추출된 빈도정보와 상기 각 어휘쌍의 길이정보을 바탕으로 결합할 어휘셋을 선정하는 결합 어휘셋 선정부(302)와, 상기 결합 어휘셋 선정부(302)에서 선정된 어휘셋을 기반으로 상기 텍스트 코퍼스를 수정한 후, 고빈도 연속 어휘쌍을 하나로 결합하여 수정된 텍스트 코퍼스를 생성하는 의사형태소 결합 정보 수정부(303)와, 상기 의사형태소 결합 정보 수정부(303)에서 생성된 텍스트 코퍼스를 바탕으로 고빈도 어휘열 인식단위를 생성하는 인식단위 생성부(304)로 구성된다. 대화체 및 낭독체 대어휘, 텍스트 코퍼스, 어휘사전, 언어모델, 발음사전
Abstract:
본 발명은 다중 발음사전을 이용한 대화체 연속 음성인식 시스템 및 방법에 관한 것으로서, 더 상세하게는 대화체 연속음성인식 과정에서 사용되는 발음사전이 일반적인 발음변이를 포용하도록 한 다중 발음사전의 개념을 확장하여 대화체 발화에 빈번하게 나타나는 불규칙한 발음변이 현상을 포용하도록 확장된 발음사전을 적용하여 대화체 연속 음성인식에서 인식성능을 향상시키고, 정형화된 출력패턴을 얻을 수 있도록 한 다중 발음사전을 이용한 대화체 연속 음성인식 시스템 및 방법에 관한 것이다. 즉, 본 발명은 대화체에서 나타나는 음운 축약, 음운 탈락, 전형적인 오발화, 발화 오류 등을 발음사전에 수용할 때 각각의 대표어휘에 대한 변이발음으로 처리하고; 언어모델과 어휘사전은 대표어휘만을 이용해 구성하도록 하며; 음성인식기의 탐색부에서는 각각의 변이발음의 발음열도 탐색하되 대표어휘로 언어모델을 참조하도록 하고, 인식결과를 출력하도록 함으로써, 음성인식 성능을 향상시키고, 정형화된 출력패턴을 얻을 수 있도록 한다.
Abstract:
A method for improving a voice recognition performance according to an embodiment of the present invention is provided to improve a voice recognition performance for a voice inputted under noise circumstances based on at least a single voice recognition feature vector. The method for improving a voice recognition performance according to an embodiment of the present invention includes the steps of: extracting at least two or more feature vectors according to at least two or more sound models which are set by each phoneme for an inputted Korean voice; extracting an observation probability value by each phoneme through the previous feature vectors of at least two or more sound models and at least two or more feature vectors which are preset for an integrated sound model activated in a viterbi decoder; and resetting the integrated sound model based on the extracted observation probability value by each phoneme, and re-recognizing the Korean voice by each phoneme.