Abstract:
In general, techniques are described for performing transform dependent de-blocking filtering, which may be implemented by a video encoding device. The video encoding device may apply a transform to a video data block to generate a block of transform coefficients, apply a quantization parameter to quantize the transform coefficients and reconstruct the block of video data from the quantized transform coefficients. The video encoding device may further determine at least one offset used in controlling de-blocking filtering based on the size of the applied transform, and perform de-blocking filtering on the reconstructed block of video data based on the determined offset. Additionally, the video encoder may specify a flag in a picture parameter set (PPS) that indicates whether the offset is specified in one or both of the PPS and a header of an independently decodable unit.
Abstract:
This disclosure describes techniques for performing sample adaptive offset signaling and coding in a video coding process. Techniques of the disclosure include both a merge-based and prediction-based signaling process for sample adaptive offset information (i.e., offset values and offset type). The techniques includes determining offset information for a current partition, comparing the offset information of the current partition with offset information of one or more neighbor partitions, coding a merge instruction in the case that the offset information of one of the one or more neighbor partitions is the same as the offset information of the current partition, and coding one of a plurality of prediction instructions in the case that the offset information of the one or more neighbor partitions is not the same as the offset information of the current partition.
Abstract:
A device for coding video data includes a video coder configured to: determine for a chroma transform block (TB) a sub-sampling format for the chroma TB; based on the sub-sampling format for the chroma TB, identify one or more corresponding luma TBs; determine, for each of the one or more corresponding luma TBs, if the corresponding luma TB is coded using a transform skip mode; and, based on a number of the one or more corresponding luma TBs coded using the transform skip mode being greater than or equal to a threshold value, determine that the chroma TB is coded in the transform skip mode.
Abstract:
In general, techniques are described for performing transform dependent de-blocking filtering, which may be implemented by a video encoding device. The video encoding device may apply a transform to a video data block to generate a block of transform coefficients, apply a quantization parameter to quantize the transform coefficients and reconstruct the block of video data from the quantized transform coefficients. The video encoding device may further determine at least one offset used in controlling de-blocking filtering based on the size of the applied transform, and perform de-blocking filtering on the reconstructed block of video data based on the determined offset. Additionally, the video encoder may specify a flag in a picture parameter set (PPS) that indicates whether the offset is specified in one or both of the PPS and a header of an independently decodable unit.
Abstract:
Se describen dispositivos y técnicas de ejemplo para codificar datos de nubes de puntos. Un dispositivo de ejemplo incluye memoria configurada para almacenar los datos de la nube de puntos y uno o más procesadores acoplados comunicativamente a la memoria. El procesador o procesadores están configurados para determinar al menos los dos puntos de referencia en una trama de nube de puntos de referencia de los datos de nube de puntos. El procesador o procesadores están configurados para aplicar interpolación de radio a al menos dos puntos de referencia para obtener al menos un inter predictor de radio para al menos un punto actual en una trama de nube de puntos actual de los datos de nube de puntos. El procesador o procesadores están configurados para codificar la trama de nube de puntos actual basado en al menos un inter predictor de radio para al menos un punto actual en la trama de nube de puntos actual.
Abstract:
Se describen dispositivos y técnicas de ejemplo para codificar datos de nube de puntos. Un dispositivo de ejemplo incluye memoria configurada para almacenar los datos de nube de puntos y uno o más procesadores acoplados de manera comunicativa a la memoria. El uno o más procesadores están configurados para determinar al menos dos puntos de referencia en un marco de nube de puntos de referencia de los datos de nube de puntos. El uno o más procesadores están configurados para aplicar interpolación de radio a los al menos dos puntos de referencia para obtener al menos un interpredictor de radio para al menos un punto actual en un marco de nube de puntos actual de los datos de nube de puntos. El uno o más procesadores están configurados para codificar el marco de nube de puntos actual en función del al menos un interpredictor de radio para el al menos un punto actual en el marco de nube de puntos actual.
Abstract:
Techniques are described of using Position Dependent Intra Prediction Combination (PDPC). A video coder such as a video encoder or a video decoder utilizes PDPC in cases where a current block intra mode predicted using an angular intra prediction mode.
Abstract:
Un método comprende obtener un primer ángulo láser; obtener un segundo ángulo láser; obtener una diferencia de ángulo láser para un tercer ángulo láser; determinar un valor previsto en función del primer ángulo láser y el segundo ángulo láser; y determinar el tercer ángulo láser en función del valor previsto y la diferencia de ángulo láser para el tercer ángulo láser.
Abstract:
Un dispositivo para decodificación de datos de video determina que un bloque actual de datos de video es codificado en un modo de intrapredicción ponderada lineal afín (ALWIP); deriva, con base en un conjunto de muestras vecinas de borde izquierdo del bloque actual y un conjunto de muestras vecinas de borde superior del bloque actual, un subconjunto de muestras de borde izquierdo y un subconjunto de muestras de borde superior; aplica un modelo afín al subconjunto de muestras de borde izquierdo y el subconjunto de muestras de borde superior para generar un bloque intermedio de muestras intermedias; filtra las muestras intermedias para generar un bloque de predicción final; decodifica el bloque actual de datos de video con base en el bloque de predicción final.