Abstract:
The present invention relates to a method and a system for recognizing a voice using three-dimensional geometry information. The voice recognition system comprises a learning module and a recognizing module. The learning module generates a recognition unit using three-dimensional geometry information for study and three-dimensional features for study extracted from the information. The recognizing module applies the three-dimensional geometry information acquired from a physical target related or belonged to a voice or three-dimensional features extracted from the geometry information to the recognition unit, and conducts voice recognition. The method and the system for recognizing a voice according to the present invention, recognizes a voice using three-dimensional geometry information on lips, a part around the lips, or one or more arbitrary regions of a human body in speech. Also, final voice recognition is conducted by combining two-dimensional features and sound features, and three-dimensional features and sound features in speech, and by combining recognition result of the two-dimensional features or sound features, or recognition result of the three-dimensional geometry information or three-dimensional features in speech. Therefore, the accuracy of voice recognition is improved.
Abstract:
본 발명에 따르는 신호의 시간 지연 및 감쇄 추정에 기반한 반향 환경에서의 암묵 음원 분리 방법은, 본 발명의 암묵 음원 분리 방법은, 둘 이상의 마이크로부터의 혼합신호들을 입력받는 단계; 상기 혼합신호들을 STFT(Short Time Fourier Transform)하여 시간-주파수 영역의 혼합신호들로 변환하는 단계; STFT된 혼합신호들에 대해, 주파수별 감쇄 및 시간 지연 값에 대한 초기화를 수행하고, 초기화된 주파수별 감쇄 및 시간 지연 값이 수렴되도록 학습시키고, 학습된 주파수별 감쇄 및 시간 지연 값을 토대로 주파수별 이진 마스크를 생성하고, 상기 주파수별 이진 마스크를 이용하여 주파수별로 신호를 분리하고, 상기 주파수별로 분리된 신호들에 대해 상관 계수를 구하여 주파수별로 분리된 신호들에 대한 순서를 맞추는 단계; 상기 순서가 맞춰진 신호들을 ISTFT(Inverse Short Time Fourier Transform)하여 시간 영역의 음원 신호들로 복원하는 단계;를 구비한다.
Abstract:
본 발명은 3차원 기하정보를 이용하여 음성 인식하는 방법 및 시스템에 관한 것이다. 상기 음성 인식 시스템은 학습 모듈 및 인식 모듈을 구비하여, 학습 모듈은 학습용 3차원 기하정보 또는 이들로부터 추출된 학습용 3차원 특징을 이용하여 인식기를 생성한다. 상기 인식 모듈은 음성에 연관되거나 종속된 물리적 대상로부터 획득한 3차원 기하정보 또는 이로부터 추출된 3차원 특징을 상기 인식기에 적용하여 음성 인식하는 것을 특징으로 한다. 본 발명에 따른 음성 인식 시스템 및 방법은 발화시의 입술 및 주변, 또는 인체의 임의의 하나 이상의 영역에 대한 3차원 기하정보를 이용하여 음성 인식하는 것을 특징으로 하며, 더 나아가 발화시의 2차원 특징 또는 음향 특징과 3차원 기하정보 또는 3차원 특징을 결합하여 음성 인식하거나, 발화시의 2차원 특징 또는 음향 특징에 의한 인식 결과와 3차원 기하정보 또는 3차원 특징에 의한 인식 결과를 결합하여 최종적으로 음성 인식함으로써 음성 인식의 정확도를 향상시키는 것을 특징으로 한다.
Abstract:
음성 인식 장치가 개시된다. 본 음성 인식 장치는, 사용자를 촬상한 복수의 이미지 및 음원을 입력받는 입력부, 복수의 이미지 각각에서 사용자의 입술 영역을 검출하는 검출부, 복수의 이미지 각각의 검출된 입술 영역에 대한 동적 돌출맵을 생성하는 돌출맵 생성부, 생성된 동적 돌출맵을 이용하여 입술의 움직임 정보를 취득하는 정보 취득부. 취득된 움직임 정보를 기초로 입력된 음원에 대한 음성 인식을 수행하는 음성 인식부, 및, 음성 인식의 결과를 출력하는 출력부를 포함한다.
Abstract:
A robust speech recognition system according to the present invention improves a sound source by using an MPDR beamformer in a pre-processing process, applies an HIVA learning algorithm to the composed signals of the improved sound source signals and noise signals, and extracts a feature vector of the sound source signals. The speech recognition system applies a non-holonomic constraint and a minimal distortion principle when performing the HIVA learning algorithm to minimize signal distortion and improve convergence of a non-mixing matrix. In addition, the speech recognition system checks for missing features in the learning process by using an improved sound source and a noise sound source and compensates for the same. By the aforementioned features, the robust speech recognition system provides a system resistant to noise on the basis of an independent vector analysis algorithm using harmonic frequency dependency. [Reference numerals] (200) Signal input unit;(210) Signal converting unit;(220) Pre-processing unit;(230) Sound source extracting unit;(246) Mask generating unit;(248) Loss property compensation output unit;(250) DCT converting unit;(260) Voice recognition unit;(AA,BB) Log unit
Abstract:
PURPOSE: A device and method for recognizing a voice are provided to easily recognize the voice with accurately identifying a juncture in which a speaker speaks. CONSTITUTION: A device for recognizing a voice includes an input part (110), a detecting part (150), a saliency map generating part (160), an information obtaining part (170), a voice recognizing part (180), and an output part (120). The input part is inputted with multiple photographed images and sound sources, and a user is included in the photographed images. The detecting part detects the lip regions of a user from the respective images. The saliency map generating part generates dynamic saliency maps for the lip regions. The information obtaining part obtains motion information for a lip using the dynamic saliency maps. The voice recognizing part recognizes a voice for the sound sources based on the motion information for the lip. The output part outputs a result from recognizing the voice. [Reference numerals] (110) Input part; (120) Extracting unit; (130) Storage unit; (140) Location determination unit; (160) Saliency map generating part; (170) Information obtaining part; (180) Voice recognizing part; (190) Control unit; (200) Face detecting unit; (300) Lips detecting unit