Abstract:
MDCT-TCX 프레임과 CELP 프레임 간 연동을 위한 윈도우 처리 장치 및 방법이 개시된다. 윈도우 처리 장치는 현재 서브 프레임에 대해 이전 서브 프레임의 코딩 모드 및 이후 서브 프레임의 코딩 모드를 판단하는 코딩 모드 판단부 및 상기 이전 서브 프레임의 코딩 모드 및 상기 이후 서브 프레임의 코딩 모드에 따라 결정된 윈도우를 상기 현재 서브 프레임에 적용하는 윈도우 적용부를 포함할 수 있다.
Abstract:
특정 악기만으로 연주된 음원 정보가 있는 경우에 음원 정보를 직접적으로 이용하여 혼합 신호를 대상 음원과 나머지 음원들로 재구성함으로써, 혼합 신호에 포함되어 있는 음원을 보다 효율적으로 분리할 수 있는 음악 음원 분리 장치가 개시된다. 음악 음원 분리 장치는 음원 분리 모델을 사용하여 혼합 신호와 특정 음원 신호에 NMPCF(Nonnegative Matrix Partial Co-Factorization) 분석을 수행하고, 분석 결과에 따라 복수의 엔티티(entity)행렬들을 획득하는 NMPCF 분석부; 및 상기 엔티티 행렬간 내적을 계산하여 상기 혼합 신호에서 상기 특정 음원 신호에 대응하는 대상 악기 신호를 분리하는 대상 악기 신호 분리부를 포함한다. 음원 분리, NMPCF, NMF, 음악 음원 분리, 데이터베이스.
Abstract:
PURPOSE: A voice signal separating device is provided to improve an estimation function of a basic frequency of main melody obtained in a non-negative matrix factorization method by sufficiently removing sounds of other musical instruments except for vocals. CONSTITUTION: A voice feature estimator(110) estimates a feature of a voice signal included in an inputted music signal. A contribution level calculator(120) calculates a contribution level of the voice signal for the music signal by using the estimated feature of the voice signal. A voice signal separator(130) separates the voice signal from the music signal by a filter gain for the voice signal based on the calculated contribution level. [Reference numerals] (110) Voice feature estimator; (120) Contribution level calculator; (130) Voice signal separator; (140) Power supply unit; (150) Main control unit
Abstract:
PURPOSE: An apparatus and a method for separating a sound source are provided to separate a target sound source signal from mixture signals offered through a plurality of channels by learning the distribution of a corresponding sound source. CONSTITUTION: A parameter determining unit(110) determines a parameter related to inter channel relation with a sound source included in a received multi-channel audio signal. A sound source value calculating unit(120) calculates model membership probability for each sound source from an estimated mixture model. A sound source separation unit(130) separates sound sources from multi-channel audio signals. A power supply unit(140) supplies power to each part forming the sound source separation unit. A main control unit(150) controls the whole operation of each part forming the sound source separation unit.
Abstract:
PURPOSE: A USAC(Unified Speech And Audio Coding) device and a method thereof are provided to control the overlap area of a window in the transition section when the window is overlapped between the long frames to increase the coding efficiency. CONSTITUTION: A first encoding unit(4720) encodes an input signal. The first encoding unit detects a transition section from the encoding result. A second encoding unit(4730) controls the length of an overlap are of a window according to the detected transition section. A second encoding unit performs a core encoding of the input signal. A bit stream formatter(4750) generates a bit stream with the core encoded input signal.
Abstract:
PURPOSE: A music sound separating device using time and frequency features and a method thereof are provided to reconfigure mixed signal by target sound sources and remaining sound sources using features of sound sources which are temporally repeated while directly using sound source information. CONSTITUTION: A previous information signal compressing unit(110) compresses a previous information signal including features of a specific sound source. A mixed signal separating unit(120) separates mixed signals including sound sources into a plurality of segments. An NMPCF(Nonnegative Matrix Co-Factorization) analyzing unit(130) applies an NMPCF algorithm to the mixed signal and the previous information signal. The NMPCF analyzing unit obtains shared information between the segments. A target musical instrument signal separating unit(140) separates a target musical instrument signal corresponding to the specific sound source from the mixed signal.
Abstract:
객체 기반 오디오 컨텐츠 생성/재생 방법 및 그 장치가 개시된다. 객체 기반 오디오 컨텐츠 생성 장치는 적어도 하나의 제1 오디오 프리셋 및 상기 적어도 하나의 제1 오디오 프리셋의 제1 프리셋 아이디를 저장하는 데이터베이스, 오디오 컨텐츠를 구성하는 복수의 오디오 객체의 객체 속성에 대한 정보를 포함하는 오디오 프리셋을 생성하는 프리셋 생성부, 상기 생성된 오디오 프리셋의 프리셋 아이디(ID)를 설정하는 프리셋 아이디 설정부, 및 상기 복수의 오디오 객체, 상기 오디오 프리셋 및 상기 프리셋 아이디를 부호화하여 객체 기반 오디오 컨텐츠를 생성하는 부호화부를 포함하고, 상기 프리셋 아이디 설정부는 상기 생성된 오디오 프리셋과 대응되는 제1 오디오 프리셋이 상기 데이터베이스에 존재하는 경우, 상기 대응되는 제1 오디오 프리셋의 제1 프리셋 아이디를 상기 생성된 오디오 프리셋의 프리셋 아이디� �� 설정한다. 객체 기반 오디오, 오디오 객체, 프리셋, 오디오 장면, 프리셋 아이디,