Abstract:
PURPOSE: An apparatus and a method for transcoding data between speech codecs having different CELP(Code Excited Linear Prediction) types are provided to reduce quantity of calculation and offer speech with high quality by utilizing one transcoding filter instead of a post-processing filter and a perception weighting filter. CONSTITUTION: A decoding process part(321) converts a bitstream with an input CELP codec format into a speech signal, wherein the bitstream is formed by coding an input speech signal. A transcoding filter(323) filters the decoded speech signal by filter characteristics calculated by adopting an optimal weighting value for minimum spectrum distortion. A transcoding filter design part(322) extracts the optimal weighting value from a weighting value set comprised of a plurality of weighting value pairs. A coding process part(324) codes the speech signal processed by the transcoding filter and thereby generates a bitstream of an output CELP codec format.
Abstract:
PURPOSE: A wideband voice encoder, a method therefor, a wideband decoder and a method therefor are provided to offer excellent voice quality in a voice interval which is not processed by an algebraical codebook by performing multi-stage fixed codebook retrieval. CONSTITUTION: A voice characteristic classifying unit(105) classifies the characteristic of a voice corresponding to a current frame using an open-loop pitch value of a recognition weight filtered signal of a wideband voice signal and a linear prediction factor by a statistical method. An adaptive codebook retrieving unit(106) retrieves a pitch delay value near the open-loop pitch value, calculates a pitch gain value, and generates an adaptive codebook contribution signal. The adaptive codebook retrieving unit outputs difference between the generated adaptive codebook contribution signal and the recognition weight filtered signal as a primary fixed codebook target signal. A primary fixed codebook retrieving unit(107) obtains a primary fixed codebook index and a primary fixed codebook gain value, generates a primary fixed codebook contribution signal corresponding to the obtained primary fixed codebook index. The primary fixed codebook retrieving unit outputs different between the generated primary fixed codebook contribution signal and the primary fixed codebook target signal as a secondary codebook target signal. A secondary fixed codebook retrieving unit(108) has at least two or more fixed codebooks according to voice characteristics, selects one secondary fixed codebook according to voice characteristic information, and retrieves secondary fixed codebook indexes and secondary fixed codebook gain values according to the voice characteristics. A parameter multiplexing unit(110) multiplexes voice characteristic information, the pitch delay value, the pitch gain value, the primary fixed codebook index, the primary fixed codebook gain value, the secondary fixed codebook indexes and the secondary fixed codebook gain values, generates a bit stream, and transmits the bit stream to an external voice decoding terminal.
Abstract:
PURPOSE: An apparatus and a method for transmitting/receiving a wideband voice signal are provided to offer high sound quality 16 kHz sampled wideband voice signal and compatibility with an existing system. CONSTITUTION: A analyzing/filtering unit(301) receives a digital voice signal and outputs a low band voice signal having a bandwidth of 0-4 kHz of 8 kHz sampling period. A low band standard coding unit(302) receives the low band voice signal, codes it and outputs a coded low band standard signal. A low band additional coding unit(304) receives a difference between a filtered low band voice signal and a composite signal that has been decoded by a low band standard decoding unit(303) and codes them to generate a low band additional signal. An enhancement residual band coding unit(306) up-samples a composite signal obtained by combining signals outputted from the low band standard decoding unit(303) and the low band additional decoding unit(305), obtains a difference between the up-sampled signal and a voice signal inputted to the analyzing/filtering unit(301), and generates an enhancement residual band signal.
Abstract:
본 발명의 목적을 달성하기 위한 보완적 특징벡터를 이용한 화자특징벡터 생성방법 및 장치에 관한 것으로서, 본 발명의 목적은 입력된 화자 음성신호에서 특징벡터를 추출하여 화자모델링 훈련 및 화자인식을 수행하는 화자인식시스템에 있어서, 상기 입력된 음성신호에 목적화자와 사칭화자에 따라 서로 다른 제한된 환경의 보완적 특징을 첨가하는 보완특징첨가수단과, 상기 보완특징첨가수단을 통해 보완적 특징이 첨가된 음성신호의 특징벡터를 추출하는 특징벡터생성수단을 포함하여 구성된 것을 특징으로 한다. 화자, 목적화자, 사칭화자, 음성, 인식, 특징, 벡터, 추출, 생성, 보완, 제한적 환경
Abstract:
본 발명의 목적을 달성하기 위한 보완적 특징벡터를 이용한 화자특징벡터 생성방법 및 장치에 관한 것으로서, 본 발명의 목적은 입력된 화자 음성신호에서 특징벡터를 추출하여 화자모델링 훈련 및 화자인식을 수행하는 화자인식시스템에 있어서, 상기 입력된 음성신호에 목적화자와 사칭화자에 따라 서로 다른 제한된 환경의 보완적 특징을 첨가하는 보완특징첨가수단과, 상기 보완특징첨가수단을 통해 보완적 특징이 첨가된 음성신호의 특징벡터를 추출하는 특징벡터생성수단을 포함하여 구성된 것을 특징으로 한다.
Abstract:
본 발명은 화자인식시스템의 화자 특징벡터 생성방법 및 시스템에 관한 것으로서, 입력된 화자 음성신호에서 특징벡터를 추출하여 화자모델링 훈련 및 화자인식을 수행하는 화자인식시스템에 있어서, 입력된 화자음성신호의 피치간격을 측정하고 소정의 피치구간 음성신호를 추출하는 피치구간 음성추출수단, 피치구간음성추출수단에서 추출된 음성신호의 특징벡터를 생성하는 특징벡터생성수단을 포함하여 이루어진 것을 특징으로 한다.
Abstract:
본 발명은 음성을 이용한 화자 인식 시스템에서 기존에 사용하는 특징 벡터를 특정한 변환 행렬을 사용하여 성능을 더 향상시킬 수 있는 모델을 만드는 방법에 관한 것으로서, 화자 인식 시스템에 사용될 수 있는 특징벡터를 변환 행렬을 이용해 변환한 후 화자 모델을 만들게 되면 화자 인식 시스템의 성능을 향상시킬 수 있는 것을 특징으로 한다. 화자, 음성, 인식, 변환, 행렬, 특징
Abstract:
본 발명은 음성을 이용한 화자 인식 시스템에서 기존에 사용하는 특징 벡터를 특정한 변환 행렬을 사용하여 성능을 더 향상시킬 수 있는 모델을 만드는 방법에 관한 것으로서, 화자 인식 시스템에 사용될 수 있는 특징벡터를 변환 행렬을 이용해 변환한 후 화자 모델을 만들게 되면 화자 인식 시스템의 성능을 향상시킬 수 있는 것을 특징으로 한다. 화자, 음성, 인식, 변환, 행렬, 특징
Abstract:
본 발명은 화자인식시스템의 화자 특징벡터 생성방법 및 시스템에 관한 것으로서, 입력된 화자 음성신호에서 특징벡터를 추출하여 화자모델링 훈련 및 화자인식을 수행하는 화자인식시스템에 있어서, 입력된 화자음성신호의 피치간격을 측정하고 소정의 피치구간 음성신호를 추출하는 피치구간 음성추출수단, 피치구간음성추출수단에서 추출된 음성신호의 특징벡터를 생성하는 특징벡터생성수단을 포함하여 이루어진 것을 특징으로 한다.
Abstract:
PURPOSE: A method for allocating sub-channels in OFDM communication and a recoding medium for storing an allocation program are provided to form a simple bit-loading algorithm by using a modulation/demodulation level as feedback information. CONSTITUTION: A base station receives modulation/demodulation levels and average receiving S/N ratios from each terminal(S1). Users are sorted according to the average receiving S/N ratios(S2). Sub-channels are selected by using the maximum modulation/demodulation level and the maximum average receiving S/N ratio after the users are sorted according to the average receiving S/N ratio(S3). The selected sub-channels are assigned to the users(S4-S7).