Abstract:
본 발명에 따른 최적 계층적 블록 매칭(optimized hierarchical block matching, OHBM) 방법 및 시스템은, 계층적 블록 매칭에서, 계산량(computational cost)과 정확도(accuracy)를 최적화하도록 영상 피라미드(image pyramid)의 레이어 수(number of layers)와 두 인접 레이어(two consecutive layers) 사이의 해상도 비(scale factor), 즉 단위 해상도 비(unit scale factor)를 결정하여 계층적 블록 매칭을 수행하는 것을 특징으로 한다. 또한 본 발명에 따른 최적 계층적 블록 매칭 방법 및 시스템은 정확도를 향상시키기 위하여 두 입력 영상의 각 채널의 평균과 표준편차를 이용하여 두 입력 영상 간의 컬러 차이를 고속으로 보정하는 컬러 보정(color alignment, CA) 단계(혹은 컬러 보정부)를 더 포함하기도 한다. 또한 본 발명에 따른 영상 정합(image registration) 방법은, 두 영상에 대해 상기 최적 계층적 블록 매칭 방법 또는 시스템을 이용하여 최적 계층적 블록 매칭을 수행하고, 그 결과를 이용하여 소정의 기하 모델(geometric transformation model)에 기반을 둔 하나 이상의 기하 변환 파라미터를 추정하고, 상기 추정된 기하 변환 파라미터를 이용하여 두 입력 영상 중 하나 이상을 기하 변환하는 것을 특징으로 한다. 또한 본 발명에 따른 최적 계층적 블록 매칭을 이용한 영상 압축 방법은 영상 프레임 간 또는 스테레오스코픽 3D(stereoscopic 3D, S3D) 영상이나 다시점 3D(multiview 3D) 영상의 경우에는 좌우 영상 간 혹은 서로 다른 시점(viewpoint)의 영상 간 모션 보정을 위한 모션 추정의 속도를 획기적으로 향상시키기 위하여 상기 최적 계층적 블록 매칭 방법 또는 시스템을 이용하는 것을 특징으로 한다.
Abstract:
A speech feature enhancement method in a reverberation environment according to the present invention initializes model error statics and log mean energy of a room impulse response (RIP) through an approximate modeling process for the reverberation environment, determines an enhanced LMPSCs estimation formula based on the initialized model error statics and log mean energy of RIP, estimates the LMPSCs estimation formula with regard to an observation signal based on the enhanced LMPSCs estimation formula, calculates and updates the log mean energy of the RIP based on the observation signal, the model error statics, and the enhanced LMPSCs, and determines the enhanced LMPSCs estimation formula based on the updated model error statics and log mean average of the RIP. The present invention includes a first step of determining the enhanced LMPSCs estimation method in consideration of a frequency dependent reverberation and a second step of improving the speech feature of an input signal according to the LMPSCs estimation method in consideration of the frequency dependent reverberation.
Abstract:
본 발명은 3차원 기하정보를 이용하여 음성 인식하는 방법 및 시스템에 관한 것이다. 상기 음성 인식 시스템은 학습 모듈 및 인식 모듈을 구비하여, 학습 모듈은 학습용 3차원 기하정보 또는 이들로부터 추출된 학습용 3차원 특징을 이용하여 인식기를 생성한다. 상기 인식 모듈은 음성에 연관되거나 종속된 물리적 대상로부터 획득한 3차원 기하정보 또는 이로부터 추출된 3차원 특징을 상기 인식기에 적용하여 음성 인식하는 것을 특징으로 한다. 본 발명에 따른 음성 인식 시스템 및 방법은 발화시의 입술 및 주변, 또는 인체의 임의의 하나 이상의 영역에 대한 3차원 기하정보를 이용하여 음성 인식하는 것을 특징으로 하며, 더 나아가 발화시의 2차원 특징 또는 음향 특징과 3차원 기하정보 또는 3차원 특징을 결합하여 음성 인식하거나, 발화시의 2차원 특징 또는 음향 특징에 의한 인식 결과와 3차원 기하정보 또는 3차원 특징에 의한 인식 결과를 결합하여 최종적으로 음성 인식함으로써 음성 인식의 정확도를 향상시키는 것을 특징으로 한다.
Abstract:
A robust speech recognition system according to the present invention improves a sound source by using an MPDR beamformer in a pre-processing process, applies an HIVA learning algorithm to the composed signals of the improved sound source signals and noise signals, and extracts a feature vector of the sound source signals. The speech recognition system applies a non-holonomic constraint and a minimal distortion principle when performing the HIVA learning algorithm to minimize signal distortion and improve convergence of a non-mixing matrix. In addition, the speech recognition system checks for missing features in the learning process by using an improved sound source and a noise sound source and compensates for the same. By the aforementioned features, the robust speech recognition system provides a system resistant to noise on the basis of an independent vector analysis algorithm using harmonic frequency dependency. [Reference numerals] (200) Signal input unit;(210) Signal converting unit;(220) Pre-processing unit;(230) Sound source extracting unit;(246) Mask generating unit;(248) Loss property compensation output unit;(250) DCT converting unit;(260) Voice recognition unit;(AA,BB) Log unit
Abstract:
PURPOSE: A method for separating a blind source according to independent vector analysis by using a feed forward network and a device thereof are provided to resolve a problem according to independency between frequencies without heuristic technology. CONSTITUTION: An ST(Short-Time) Fourier transformer(100) converts mixed signals of a TD(Time-Domain) into mixed signals of an FD(Frequency-Domain). An FF unmixing filter network(104) separates the mixed signals of the FD into source signals. An inverse ST Fourier transformer(105) converts the separated source signals into source signals of the TD. An MPDR beam-former(102) receives the mixed signals of the FD from the ST Fourier transformer. The MPDR beam-former generates predetermined mixed signals of the FD. The MPDR beam-former provides the generated mixed signals of the FD to the FF unmixing filter network. [Reference numerals] (100) ST Fourier transformer; (102) MPDR beamformer; (104) FF unmixing filter network; (105) Reverse ST Fourier transformer
Abstract:
본 발명은 음향 채널 추정에 기반한 음원 위치 탐지 방법에 관한 것이다. 상기 음향 채널 추정에 기반한 음원 위치 탐지 방법은, (a) 적응 채널 필터를 초기화하는 단계; (b) 각 센서로부터 신호들을 입력받는 단계: (c) 각 센서로부터 입력된 신호들을 이전에 갱신된 적응 채널 필터들을 통과시킨 후, 상기 통과된 신호들 간의 차이에 따른 오류 신호를 검출하는 단계: (d) 상기 오류 신호를 이용하여 음원과 각 센서들 사이의 적응 채널 필터들을 다채널 최소 평균 제곱법에 의해 갱신하는 단계: (e) 갱신된 적응 채널 필터를 실제 채널 필터의 선험적 정보를 이용하여 최종 갱신하는 단계: (f) 적응 채널 필터로부터 직접경로의 시간 지연을 파악하고 센서간 시간 지연 차이로부터 음원 위치를 추정하는 단계: 를 구비하고, 상기 (e)단계에서 적응 채널 필터를 갱신할 때 음향 채널 특성을 적용한다. 상기 음향 채널 특성은 채널 필터 계수들이 '성김(sparsity)' 분포를 갖는 특성을 이용함으로써, 보다 더 정확하게 직접경로의 시간 지연을 추정할 수 있게 된다. 음원 위치 탐지, 음향 채널, 추정