Abstract:
본 발명은 STM-N 동기식 광전송 시스템의 수신국에서 전송 오류 상태를 송신국으로 전달하기 위한 M1 바이트 전달회로에 관한 것으로서, 종래의 M1 바이트 처리기술은 미비하고 다중화기와 역다중화기간의 M1 바이트 전송시 M1바이트가 정상적으로 전달되었는지 판단하는 방식이 제안되지 않은 문제가 있으므로 상기 문제를 해결하기 위해 본 발명은, 수신국의 다중화기에서 검출된 BIP를 근거로 생성한 M1 바이트를 직렬신호로서 다중화기로 전달 및 M1 바이트 전달시 발생가능한 오류를 검출하는 방식을 제공하여 오류검출을 위해 역다중화기에서 8비트로 부호화된 M1 바이트만을 다중화기로 전달하면 다중화기에서는 수신된 M1 바이트를 병렬 로딩한 후 다시 2진 합산하여 역다중화기에서 보내온 짝수 패리티비트와 비교하여 역다중화기와 다중화기간의 M1 � ��이트 전송시 오류 발생을 검출하고 검출된 오류는 성능평가에 활용함으로써 SRM-N 시스템 적용을 통해 M1 바이트 전달시 발생할 수 있는 전송오류를 평가할 수 있고 서로 다른 클럭소스를 사용하는 역다중화기와 다중화기간의 신호전송을 정상적으로 할 수 있는 회로를 제공함으로써 시스템의 구축을 용이하게 할 수 있으며 STM-N 신호에 모두 공통적으로 적용이 가능한 효과를 가진다.
Abstract:
실시 예는, 음성인식 단말기로부터 입력된 음성에 대응하는 음성 데이터 및 상기 음성의 입력 환경에 대응하는 멀티센서 데이터를 수신하는 통신모듈, 이전 멀티센서 데이터를 기반으로 음성 입력 환경에 따라 구분된 복수의 언어 및 음향 모델 중 상기 멀티센서 데이터에 대응하는 임의의 언어 및 음향 모델을 선정하는 모델선정모듈 및 상기 음성 데이터에서 추출된 특징 벡터를 상기 임의의 언어 및 음향 모델에 적용하여, 상기 음성 데이터에 대한 음성인식결과를 상기 음성인식 단말기로 전송되게 상기 통신모듈을 제어하는 음성인식모듈을 포함하는 음성인식장치를 제공한다.
Abstract:
음성 인식 시스템 및 방법이 개시된다. 본 발명의 일실시예에 따른 음성 인식 시스템은, 사용자로부터 입력된 음성 데이터로부터 특징 벡터를 추출하는 특징 추출부; 상기 특징 벡터를 윈도우 크기만큼 선택하는 특징 벡터 선택 및 변환부; 트리 검색을 통하여 상기 윈도우 크기만큼 선택된 특징 벡터에 대응하는 최대 유사 GMM(Gaussian Mixture Model)을 선택하고, 상기 선택된 GMM을 이용하여 변환 매개변수를 측정하는 특징 벡터 적응부; 음향 모델 및 언어 모델을 기록하는 데이터베이스; 및 음성 인식부를 포함하고, 상기 특징 벡터 선택 및 변환부는 상기 변환 매개변수를 이용하여 상기 특징 벡터를 변환하며, 상기 음성 인식부는 상기 변환된 특징 벡터, 상기 음향 모델 및 상기 언어 모델을 이용하여 상기 사용자의 음성을 인식할 수 있다.
Abstract:
PURPOSE: A search space generating method for voice recognition and a system thereof are provided to improve an accuracy of a voice recognition by adding 'a pronunciation heat which is generated by a pronunciation conversion between recognition units' to a search space. CONSTITUTION: A WFST[Weighted Finite State Transducer] coupling unit generates a WFST L·G by a coupling of a WFST G[WFST Grammar] and a WFST L[WFST pronunciation Library] and generates a WFST L'·L·G by a coupling of a WFST L'[WFST pronunciation conversion] and the WFST L·G(310,320). The WFST coupling unit generates a WFST C·L'·L·G by a coupling of a WFST context[WFST C] and the WFST L'·L·G and generates a WFST H·C·L'·L·G by a coupling of a WFST H[WFST Hidden Markov model] and the WFST C·L'·L·G(330,340). A WFST optimization unit optimizes the WFST H·C·L'·L·G(350). [Reference numerals] (310) WFST G and WFST L combination; (320) WFST L' and WFST L·G combination; (330) WFST C and WFST L'·L·G combination; (340) WFST H and WFST C·L'·L·G combination; (350) Optimization; (AA) Start; (BB) End
Abstract translation:目的:提供一种用于语音识别的搜索空间生成方法及其系统,以通过将由识别单元之间的语音转换产生的发音热量添加到搜索空间来提高语音识别的精度。 构成:WFST [加权有限状态传感器]耦合单元通过WFST G [WFST语法]和WFST L [WFST发音库]的耦合产生WFST L·G,并通过一个WFST L'·L·G生成WFST L' WFST L'[WFST发音转换]与WFST L·G(310,320)的耦合。 WFST耦合单元通过WFST上下文[WFST C]和WFST L'·L·G的耦合产生WFST C·L'·L·G,并通过下式产生WFST H·C·L'·L·G WFST H [WFST隐马尔可夫模型]和WFST C·L'·L·G(330,340)的耦合。 WFST优化单元优化WFST H·C·L'·L·G(350)。 (参考号)(310)WFST G和WFST L组合; (320)WFST L'和WFST L·G组合; (330)WFST C和WFST L'·L·G组合; (340)WFST H和WFST C·L'·L·G组合; (350)优化; (AA)开始; (BB)结束
Abstract:
PURPOSE: An acoustic model adapting method and a voice recognizing device using the same are provided to eliminate a re-study burden of a user about a quantized acoustic model by an embedded voice recognizing machine. CONSTITUTION: An extracting unit(110) extracts features from a waveform corresponding to a voice. The extracting unit generates quantized data. A probability measuring unit(120) applies the quantized data, an adapted network, and a quantized acoustic model to fixed point-applied high-speed computation. The probability measuring unit calculates Gaussian occupancy probability. An adaption unit(130) updates the acoustic model. A voice recognizing unit(150) recognizes the extracted features using the updated acoustic model.