Abstract:
There are disclosed various methods, apparatuses and computer program products for video encoding/decoding. In some embodiments the method comprises signalling a long-term palette information, where the long-term palette information comprises at least information on the color values for each entry in the long-term palette; generating a palette that is used for coding a coding unit by either selecting at least one color value from a long-term palette or by separately signaling at least one color value, or performing both. Alternatively the method comprises constructing a long-term palette during an encoding process or a decoding process; and updating the long-term palette dynamically after coding a coding unit, and constructing a palette used for encoding or decoding a coding unit using information from the long-term palette.
Abstract:
There is provided a method comprising encoding an uncompressed constituent frame into a first encoded picture, said encoding also resulting into a reconstructed first picture and said constituent frame having an effective picture area within the first reconstructed picture, performing either of the following as a part of said encoding: inserting at least one sample value outside the effective picture area to form a boundary extension for the constituent frame in the reconstructed first picture; or saturating or wrapping oversample locations outside the effective picture area to be within the effective picture area. There is also provided a method comprising receiving an encoded picture, decoding the encoded picture to form a reconstructed constituent frame of the picture having an effective picture area;and performing either of the following: filling an area outside the effective picture area to produce a padded reference picture, wherein the filled area forms a boundary extension; or determining that when referring to sample locations outside the effective picture area in decoding, said sample locations are saturated or wrapped over to be within the effective picture area.
Abstract:
A method of encoding a plurality of views of a scene into a multi-view video bitstream comprises determining that a first picture of a first view is used as a reference picture for a second picture of another view; based on the determining that the first picture of the first view is used as a reference picture for the second picture of another view, providing, in the bitstream, a first signaling element indicating that the first picture is treated as a longterm reference picture for the second picture; and using the first picture as a long-term reference picture for the second picture in the encoding.
Abstract:
Un procedimiento para codificar un vídeo, que comprende: codificar las imágenes recibidas (300) en imágenes codificadas, las imágenes codificadas se dividen en porciones que comprenden un número entero de unidades de codificación, codificar una estructura de sintaxis para proporcionar al menos una de una lista 0 de imágenes de referencia para los segmentos P y B y una lista 1 de imágenes de referencia para los segmentos B, en el que al menos una de la lista 0 de imágenes de referencia y la lista 1 de imágenes de referencia contiene unas imágenes de referencia inactivas marcadas como "usada como referencia" pero que se indican que no se usen como referencia para un segmento actual, marcar las imágenes que no están en ninguna de la lista 0 de imágenes de referencia y la lista 1 de imágenes de referencia como "no usada como referencia", caracterizado porque el procedimiento comprende además codificar un segmento actual de una imagen actual mediante el uso de una o más imágenes de referencia de la lista 0 de imágenes de referencia o de la lista 1 de imágenes de referencia, pero no de las imágenes de referencia inactivas que se indican como "no usada como referencia para el segmento actual" de la imagen actual, e indicar que las imágenes de referencia inactivas de la lista 0 de imágenes de referencia o de lista 1 sean "no usada como referencia para el segmento actual" codificando un primer índice de referencia máximo de la lista 0 de imágenes de referencia para codificar el segmento actual, en el que las imágenes de referencia inactivas en la lista 0 de imágenes de referencia tiene un índice de referencia más allá del primer índice de referencia máximo.
Abstract:
um aparelho, um método e um programa de computador para codificação e decodificação de vídeo. um método que compreende: determinar um número de unidades que devem ser atribuídas a partições e são inicializadas como não atribuídas; indicar ou inferir um número de partições explicitamente dimensionadas a serem atribuídas; indicar tamanhos para as partições explicitamente dimensionadas e consequentemente marcar unidades não atribuídas como atribuídas a partições em uma ordem de escaneamento predefinida; indicar uma contagem de unidades; atribuir repetitivamente a contagem de unidades a partições e consequentemente marcar unidades não atribuídas como atribuídas na ordem de escaneamento predefinida até que o número de unidades não atribuídas seja menor que a contagem de unidades; e atribuir, se o número de unidades não atribuídas for maior que 0, as unidades não atribuídas a uma última partição.
Abstract:
A method, apparatus and computer program product describing groups of overlays, such as semantically correlated overlays, to background media content. In the context of a method, a group of overlays to background media content is defined by metadata (60). The overlays include semantically correlated overlays having alternative overlays representing content with different levels of detail or overlays providing different choices of content. The method also includes receiving client selection of a respective overlay from a group of overlays (62). In response to the client selection, the method causes the respective overlay to be provided. The respective overlay is received (64) for presentation concurrent with background media content (68).
Abstract:
Un método en un aparato de caché de intermediario (104) de un sistema de difusión en continuo de difusión en continuo adaptativa dinámica a través de protocolo de transferencia de hipertexto, DASH, (100) que comprende el aparato de caché de intermediario (104), uno o más aparatos de red de servicio (108) y un aparato de cliente de difusión en continuo (102), en donde el aparato de caché de intermediario (104) almacena una o más diferentes representaciones de contenido de medios durante un periodo de contenido de medios recibido desde el uno o más aparatos de red de servicio (108), comprendiendo el método: recibir, en el aparato de caché de intermediario (104) desde el aparato de cliente de difusión en continuo (102), una petición de HTTP que incluye un primer campo de encabezamiento que indica la aceptación de representaciones secundarias por el aparato de cliente de difusión en continuo (102); y en respuesta, transmitir un mensaje de respuesta de HTTP desde el aparato de caché de intermediario (104) al aparato de cliente de difusión en continuo (102) en respuesta a recibir la petición de HTTP, comprendiendo el mensaje de respuesta de HTTP un segundo campo de encabezamiento, en donde el mensaje de respuesta de HTTP está asociado a una descripción de difusión en continuo que describe dicha una o más diferentes representaciones de contenido de medios, y en donde el segundo campo de encabezamiento incluye una lista de identificadores de recursos universales, URI, para recursos almacenados en caché de dicha una o más diferentes representaciones del contenido de medios que son almacenados en caché por el aparato de caché de intermediario (104).
Abstract:
A method comprising:encoding a first picture on a first scalability layer and on a lowest temporal sub-layer;encoding a second picture on a second scalability layer and on the lowest temporal sub- layer, wherein the first picture and the second picture represent the same timeinstant,encoding one or more first syntax elements, associated with the first picture, with a value indicating that a picture type of the first picture is other than a step-wise temporal sub-layer access (STSA) picture; encoding one or more second syntaxelements, associated with the second picture, with a value indicating that a picture type of the second picture is a step-wise temporal sub-layer access picture; andencoding at least a third picture on a second scalability layer and on a temporal sub-layer higher than the lowest temporal sub-layer.