Abstract:
A redundant slice coding method based on PD(Polyphase Down-sampling) and a CODEC using the method are provided to adaptively vary the quantity of transmitted DCT(Discrete Cosine Transform) coefficients using the PD based redundant slice coding method to improve error resilience of scalable video coding and coding efficiency. A PD based redundant slice encoder includes a PD coding unit(110), a quantizer(120), and a reference block generator(130). The PD coding unit polyphase-down-samples a residual block corresponding to a current block and a predicted block to reconstruct the residual block into four regions. The quantizer transforms and quantizes at least one of the reconstructed regions. The reference block generator generates a reference picture based on a value obtained by inversely transforming and inversely quantizing the quantized region and then inversely polyphase down-sampling the region.
Abstract:
1. 청구범위에 기재된 발명이 속하는 기술분야 본 발명은 실시간 멀티미디어 컨텐츠 적응을 위한 유틸리티 함수 예측 장치 및 그를 이용한 멀티미디어 컨텐츠 적응 접근 시스템에 관한 것임. 2. 발명이 해결하려고 하는 기술적 과제 본 발명은 체계적인 최적의 멀티미디어 컨텐츠 적응(바람직하게는 비디오 적응)을 위하여, 압축 멀티미디어 컨텐츠로부터 제한자원과 화질의 관계를 기술하는 메타데이터(즉, 유틸리티 함수(uility function)) 정보를 예측 생성할 수 있는 유틸리티 함수 예측 장치를 제공하고자 함. 3. 발명의 해결 방법의 요지 본 발명은, 멀티미디어 환경에서의 유틸리티 함수 예측 장치에 있어서, 입력되는 라이브 압축 멀티미디어 컨텐츠 및 저장 압축 멀티미디어 컨텐츠로부터 내용 특징을 추출하기 위한 내용특징 추출수단; 균일한 내용을 갖는 멀티미디어 컨텐츠 클립(세그먼트)과, 각 클립마다 다수의 내용특징을 기술한 내용특징 벡터, 계산과 실험에 의해 기 생성된 유틸리티 함수를 기술한 유틸리티 함수 벡터를 저장하고 있는 저장수단; 상기 저장수단에서, 상기 내용특징 벡터를 내용특징 공간에서 다수의 유사한 클립들로 구성된 클래스(class)로 분류하기 위한 클러스터링수단; 상기 저장수단에서, 클래스 정보와 상기 내용특징 벡터, 상기 유틸리티 함수 벡터를 이용하여 각 클래스 내에서 회귀(regression) 모델을 구하기 위한 회귀학습수단; 상기 저장수단의 상기 내용특징 벡터와 상기 클래스 정보를 이용하여 내용특징에 따라서 상기에서 구한 클래스 중의 하나로 분류(classification)하기 위한 분류학습수단; 상기 분류학습수단의 학습결과로 얻어진 분류 규칙에 따라서 입력되는 세그먼트의 정의된 내용특징을 입력받아, 상기에서 구한 다수의 클래스 중 하나를 결정하기 위한 분류결정수단; 및 상기 분류결정수단에 의해 결정된 클래스에 해당하는 상기 회귀학습수단에서 구한 회귀 모델을 적용하여, 해당 멀티미디어 컨텐츠 클립(세그먼트)에 대한 유틸리티 함수(제한자원과 화질의 관계정보를 기술한 메타데이터)를 예측 생성하기 위한 유틸리티 함수 생성수단을 포함함. 4. 발명의 중요한 용도 본 발명은 멀티미디어 컨텐츠 적응 시스템 등에 이용됨. UMA, 비디오 적응, 트랜스코딩, QoS, 내용기반 적응, 유틸리티 함수
Abstract:
1. 청구범위에 기재된 발명이 속한 기술분야 본 발명은 UED 분류 체계 정보를 이용한 맞춤형 방송 서비스 제공 장치 및 방법에 관한 것임. 2. 발명이 해결하려고 하는 기술적 과제 본 발명은 사용자 환경을 구체적이고도 명확하게 분류하여 기술하기 위한 UED 분류 체계 정보를 정의하여 이용함으로써, AV 프로그램, 패키지, 패키지를 구성하는 각 콤포넌트(component)들을 사용자 소비환경 및 선호도에 맞게 선택될 수 있도록 하는 타겟팅 기능을 효율적으로 지원할 수 있는 UED 분류 체계 정보를 이용한 맞춤형 방송 서비스 제공 장치 및 방법을 제공하는데 그 목적이 있음. 3. 발명의 해결방법의 요지 본 발명은 AV 프로그램과 패키지를 포함하는 방송 콘텐츠를 사용자 단말로 제공하는 맞춤형 방송 시스템에 있어서, AV 프로그램과 패키지, 또는 패키지를 구성하는 각 콤포넌트들이 소비환경 및 사용자 선호도에 맞추어 선택될 수 있도록 하는 타켓팅 기능을 지원하기 위하여, UED 분류 체계 정보를 이용한 맞춤형 방송 서비스 제공 장치로서, 상기 방송 콘텐츠 및 상기 UED 분류체계 정보가 포함된 메타데이터를 사용자 단말로 공시하고 제공하기 위한 콘텐츠 제공 수단; 및 상기 사용자 단말로부터 입력받은 검색 및 선택 신호에 상응하는 콘텐츠 식별 정보를 제공하기 위한 콘텐츠 검색 수단을 포함하되, 상기 UED 분류 체계 정보는, 상기 AV 프로 그램과 패키지, 또는 패키지를 구성하는 각 콤포넌트(component)들이 소비되기에 적절한 사용자 환경 및 선호도를 기술하여 사용자 단말이 자신의 환경 및 선호도에 맞는 콘텐츠를 선택할 수 있도록 하는 메타데이터인 것을 특징으로 함. 4. 발명의 중요한 용도 본 발명은 TVA(TV-Anytime) 시스템 등에 이용됨. TVA(TV-Anytime), 맞춤형 방송, 분류 체계, 타겟팅, 메타데이터
Abstract:
1. 청구범위에 기재된 발명이 속한 기술분야 본 발명은 방송ㆍ통신 융합 환경에서의 티-커머스 서비스 시스템 및 그 방법에 관한 것임. 2. 발명이 해결하려고 하는 기술적 과제 본 발명은 엠펙-21 멀티미디어 프레임워크를 이용하여 다양한 방송ㆍ통신 융합망과 다양한 단말기(셋탑박스, 무선통신 단말기 등)를 통해 디지털 아이템을 소비할 수 있도록 제공함으로써, 보다 진보된 형태의 티-커머스 서비스를 제공하기 위한, 방송ㆍ통신 융합 환경에서의 티-커머스 서비스 시스템 및 그 방법을 제공하는데 그 목적이 있음. 3. 발명의 해결방법의 요지 본 발명은, 티-커머스 서비스 시스템에 있어서, 요청받은 디지털 아이템을 생성하여 송출하기 위한 콘텐츠 관리 수단; 상기 콘텐츠 관리 수단으로부터의 디지털 아이템을 가공하여 전송하기 위한 전송 수단; 및 상기 전송 수단으로부터 수신한 디지털 아이템을 위한 출력 인터페이스를 제공하기 위한 콘텐츠 수신 수단을 포함한다. 4. 발명의 중요한 용도 본 발명은 티-커머스 서비스 시스템 등에 이용됨. 티-커머스, 엠펙-21(MPEG-21), 디지털 아이템, 적응 변환, 방송ㆍ통신 융합망
Abstract:
본 발명은 패키지 식별 방법 및 위치 결정 방법에 관한 것으로, 더욱 상세하게는 메인AV에 연결된 종속 패키지 또는 메인AV에 연결되지 않은 독립 패키지에 대한 식별 방법과 위치 결정 방법에 관한 것이다. 본 발명은 패키지의 식별방법으로서, 상기 패키지가 메인 AV(Audio/Video)에 연결되어 종속적인 경우, 상기 패키지의 식별자로서 CRID를 사용하고, 상기 패키지가 메인 AV에 연결되지 않아 독립적인 경우에도, 상기 패키지의 식별자로서 CRID를 사용한다. 본 발명은 TVA-1 스키마를 이용하여 기술된 메인AV에 연결된 종속 패키지 또는 메인AV에 연결되지 않은 독립 패키지 두 가지 모든 경우에 대해, 개선된 패키지 식별 및 위치 결정 메커니즘을 제시함으로써 TVA-2 서비스 시나리오들을 잘 지원할 수 있는 효과를 제공한다.
Abstract:
PURPOSE: A system and a method for generating a closed-caption-based news video database and a contents-based searching method are provided to simultaneously search a text and videos of a news item through a text searcher and an item searcher. CONSTITUTION: A system for generating a closed-caption-based news video database includes an embedded text structuring unit(203), an index and additional information extraction unit(204), and a synchronizing unit(206). The embedded text structuring unit segments a closed caption text(201) into significant units to divide it into structured embedded texts. The index and additional information extraction unit extracts indexes and additional information from the closed caption text to construct a term dictionary(207). The synchronizing unit synchronizes the closed caption text with audio signals of a news video(202).
Abstract:
PURPOSE: A method for summarizing a news video based on a multimodal feature is provided to divide the news video provided together with a closed caption by the news article, and to summarize the news video by the divided news article, to utilize the summarized news video in contents-based video browsing and utilize an index result of generated closed caption data in establishing a database for text-based video search. CONSTITUTION: A digital contents acquiring step(S110) converts broadcasting signals of a news video into digital signals, and stores the converted digital signals. A multimodal feature extracting step(S120) extracts features from each multimodal component configuring the acquired digital contents. A major section detecting step(S130) detects major sections of the news video based on the extracted multimodal features. A video summary describing step(S140) structurally describes summary information of the news video based on the detected major sections. In the digital contents acquiring step, the broadcasting signals of the news video are divided into audio visual signals and closed caption signals, if the news video is an analog type. Then, the divided audio visual signals are converted into the digital signals and closed caption signals are decoded and stored in a text type.
Abstract:
PURPOSE: A system and a method for generating a closed-caption-based news video database and a contents-based searching method are provided to simultaneously search a text and videos of a news item through a text searcher and an item searcher. CONSTITUTION: A system for generating a closed-caption-based news video database includes an embedded text structuring unit(203), an index and additional information extraction unit(204), and a synchronizing unit(206). The embedded text structuring unit segments a closed caption text(201) into significant units to divide it into structured embedded texts. The index and additional information extraction unit extracts indexes and additional information from the closed caption text to construct a term dictionary(207). The synchronizing unit synchronizes the closed caption text with audio signals of a news video(202).
Abstract:
The present invention relates to a video summary description scheme for describing video summary by meta data. The video summary provides overview functionality, which makes feasible to understand overall contents of the original video within short time and navigation and browsing functionalities, which make feasible to search the desired video contents efficiently. According to the present invention the HierarchicalSummary Description Scheme (DS) comprises at least on HighlightLevel DS and selectively comprises the SummaryThemeList DS. The HightlightLevel DS describe highlight level an may have zero or at least one lower HighlightLevel DS. The HighlightLevel DS comprises one or more HighlightSegment DS which is describing highlight segment information constituting the video summary of the highlight level. The HighlightSegment DS comprises the VideoSegmentLocator DS for describing the time information of corresponding segment interval. Also, the HighlightSegment DS may comprise the ImageLocator DS for describing the representative image information of corresponding segment, the SoundLocator DS for describing the representative sound information, and the AudioSegmentLocator DS for describing the audio segment information constituting the audio summary.
Abstract:
PURPOSE: The method is provided to extract, to index, to check the representative color and attached information of an object, and to service the record medium for reading the driver program on a computer. CONSTITUTION: The method comprises the following steps. The object extraction step(301) distinguishes the pixel included in the object with the pixel excluded in the object by using the spatial segmentation. The color histogram calculation step(302) quantizes the pixel within the object. The suppressed color histogram calculation step(303) excludes the bin, composed with lower pixel than the saturation criticality and value criticality of the special value, in the suppressed color histogram calculation. The next step(304) extracts the representative color and the attached information of the representative color, the ratio and the location information, in the bin unit. After determining whether a page of a pause image is the image-object or the video-object in the (305) step, if the image-object, the course ends up to index the extracted representative color and the attached information(306). If the video-object in the result of the (305) step, the extracted representative color is saved in the representative pool(307). The next step determines whether the video-object is the last frame or not(308). If not, the course returns to the start step and if yes, the representative color histogram is calculated(309). After calculating the representative color suppressed histogram(310), the representative color and attached information of the video-object are extracted(311), and then, the final step ends up to index the extracted representative color and attached information of the video-object(312).