Abstract:
PURPOSE: A parallel processing scalable video encoding/decoding method is provided to encode/decode a target image in a plurality of encoding/decoding unit in parallel. CONSTITUTION: A video splitter(110) participates an original image by an IDR(Instantaneous Decoder Refresh) cycle. The video splitter inputs each original image to different encoding units during the IDR cycle. A plurality of encoding units(120) generate bit stream by encoding the original image during the IDR cycle. A bit stream compositor(130) successively stores the bit stream of the encoders.
Abstract:
PURPOSE: A scalable video coding/decoding method and an apparatus thereof are provided to increase the image quality of a base layer without using anti-aliasing filtering without increasing the amount of calculation. CONSTITUTION: An entropy decoding unit(120) encodes an image which is received from a encoding unit. A de-blocking filter(160) reduces the block distortion of the decoded image. A motion compensation unit(170) applies the motion compensation of the image which passes through the de-blocking filter. A half-pel filter(180) applies half-pel compensation to the image to which the motion compensation is applied.
Abstract:
본 발명은 프로그레시브 멀티미디어 스트리밍 서비스를 위한 초기 버퍼링 시간 결정 방법 및 그 시스템에 관한 것으로, 프로그레시브 스트리밍 서비스(Progressive streaming service)를 위한 패킷을 수신하고, 수신된 패킷이 버퍼에서 버퍼링되는 시간 값에 기초하여, 버퍼에서의 패킷 고갈이 발생할 확률을 계산하고, 계산된 패킷 고갈이 발생할 확률이 기 선정된 값보다 큰 경우, 연속 패킷 손실 시간 값 및 왕복 전송 시간 값을 이용하여 버퍼의 패킷 고갈을 방지할 수 있는 버퍼링 시간을 산출한다. 프로그레시브 멀티미디어 스트리밍, 패킷, 버퍼링
Abstract:
PURPOSE: An encoding/decoding device of a video signal and a method thereof are provided to remove the need to transmit a motion vector by presuming movement with use of a template. CONSTITUTION: A template motion estimator(170) presumes movement between an input image and a reference image with use of a template. An adaptive motion compensator(180) generates a predicted image with motion estimation information and the reference image. The adaptive motion compensator calculates a filter coefficient with use of the template in the predicted image. The adaptive motion compensator filters the predicted image with the filter coefficient.
Abstract:
PURPOSE: A method for decoding distribution video using motion-compensated image is provided to enhance compression efficiency using MCIF(Motion Compensated Interpolation Frame). CONSTITUTION: An intra-decoding unit(150) decodes key frame from received bitstream. A motion compensating unit(160) generates MCIF(Motion Compensated Interpolation Frame) using previous key frame block and key frame block. The average of pixel concentration is calculated based on current key frame block and forward direction movement vector information. A Slepian-wolf decoding unit(140) finally decodes Wyner-ziv frame using the MCIF.
Abstract:
본 발명의 SVC 비디오의 일반화된 FGS 데이터 추출 장치는, 비트스트림을 분석하여 하나 이상의 공간 계층의 RD(Rate-Distortion) 데이터를 추출하는 데이터 추출부, 상기 각 공간 계층에 대한 사용자 선호도 정보를 수집하는 사용자 선호도 수집부, 상기 RD 데이터에 포함된 비트율 및 상기 수집된 사용자 선호도 정보를 이용하여 상기 각 공간 계층에 대한 최적 비트율을 결정하는 결정 엔진부 및 상기 각 공간 계층에 대한 최적 비트율에 대응하지 않는 FGS 데이터를 축출하는 스케일링 엔진부를 포함한다. SVC, FGS, 사용자 선호도
Abstract:
A distributed video codec device using spatial reduction and enlargement, and a method thereof are provided to prevent degradation of a system with a reduced decoding computation quantity by receiving a time and space-reduced image. An image separator(211) temporally separates an input image. A first encoder transmits parity by encoding a part of the separated input image. A down-sampler(214) spatially reduces the rest of the separated input image. A second encoder encodes and transmits the reduced image.
Abstract:
본 발명은 콘텐츠 변환방법 및 장치에 관한 것으로서, 더욱 구체적으로는 ㅅ싱글레이어 AVC 비트스트림을 멀티레이어 SVC 비트스트림으로 변환하는 방법 및 장치에 관한 것이다. 본 발명의 H.264/AVC 비트스트림을 SVC 비트스트림으로 변환하는 방법은 입력 영상의 화면상관도 정보를 저장하는 단계, 및 상기 화면상관도 정보에 따라 입력 영상을 인코딩하는 단계를 포함 포함한다. H.264/AVC(Advanced Video Coding), SVC(Scalable Video Codec).
Abstract:
본 발명의 정상 재생 타임을 이용한 스케일러블 비디오 코딩 정보와 어드밴스드 오디오 코딩 정보의 동기화 지원 방법은, 디코딩 장치를 통하여 비디오 정보를 수신하는 단계, 상기 디코딩 장치를 통하여 오디오 정보를 수신하는 단계, 상기 수신된 비디오 정보에 포함된 실시간 프로토콜(RTP: Real Timed Protocol) 타임 스탬프(Time Stamp)를 이용하여 상기 비디오 정보의 정상 재생 타임(NPT: Normal Play Time)을 계산하는 단계, 상기 수신된 오디오 정보에 포함된 실시간 프로토콜(RTP: Real Timed Protocol) 타임 스탬프(Time Stamp)를 이용하여 상기 오디오 정보의 정상 재생 타임(NPT: Normal Play Time)을 계산하는 단계, 상기 비디오 정보의 정상 재생 타임과 상기 오디오 정보의 정상 재생 타임을 비교하여 차이값을 계산하는 단계, 상기 계산된 차이값이 특정 동기화 영역에 포함되는지 여부를 판단하는 단계 및 상기 판단 결과 상기 계산된 차이값이 특정 동기화 영역에 포함되는 경우, 상기 오디오 정보와 상기 비디오 정보를 출력하는 단계를 포함한다. RTP, NPT, 동기화, SVC, AAC
Abstract:
A synchronization supporting method of scalable video coding information and advanced audio coding information and an apparatus thereof are provided to perform synchronization of two media by inducing NPT(Normal Play Time) from time stamps about the received video and audio. An information receiver(110) receives video information and audio information. A video information analyzer(120) calculates NPT of the video information by using the real time protocol time stamp. An audio information analyzer(130) calculates the normal play time of the audio information. An operating unit(140) calculates the normal play time of the video information with 'the normal play time of the audio information. A deciding unit(150) determines the calculated difference is included in a particular synchronization area.