-
公开(公告)号:CN111818333B
公开(公告)日:2022-04-29
申请号:CN202010550240.4
申请日:2020-06-16
Applicant: 中国科学院深圳先进技术研究院
IPC: H04N19/11 , H04N19/147 , H04N19/176
Abstract: 本申请适用于视频处理技术领域,提供一种帧内预测方法、装置、终端及存储介质,其中方法包括:确定图像块的邻域像素点;从所述邻域像素点中分别确定与所述图像块中的每个像素点对应的参考像素点,所述图像块中的每个像素点与其对应的参考像素点位于同一预设弧线上;对于所述图像块中的每个像素点,将与其对应的所述参考像素点的像素值确定为所述像素点的预测值。该方案使帧内预测的执行能够更贴近360度视频投影后在2D平面中的像素点分布情况,消除360度视频中的空间冗余,提升帧内预测的准确度,提升360度视频的最终编码性能。
-
公开(公告)号:CN104469336B
公开(公告)日:2017-01-25
申请号:CN201310443316.3
申请日:2013-09-25
Applicant: 中国科学院深圳先进技术研究院
IPC: H04N13/00 , H04N19/597
Abstract: 面向绘制冗余的低复杂度的多视点深度视频信号的编码方法,用于降低深度视频编码的计算复杂度,并提高虚拟视点质量与深度码率之间的整体性能。首先根据虚拟视点绘制特性,从而获取深度可容忍范围并计算出每个深度值对应的上下限最大差异,进而分析深度视频中的冗余信息。然后,提出快速参考帧选择方法即从列表中选择出最佳参考帧,再通过快速模式选择选择出最佳编码模式。每次进行快速模式选择之前均需先进行快速参考帧选择,并通过设定阈值T1和T2,使在视频失真较小时,终止模式和参考帧选择,从而降低计算复杂度,并提升压缩性能。
-
公开(公告)号:CN106303547A
公开(公告)日:2017-01-04
申请号:CN201510310586.6
申请日:2015-06-08
Applicant: 中国科学院深圳先进技术研究院
IPC: H04N19/597 , H04N19/154 , H04N19/19
Abstract: 本发明涉及一种三维视频编码方法和装置,包括:获取B视频块和对应的已编码或未编码A视频块虚拟绘制得到的虚拟绘制块或B视频块对应的虚拟视点图像块作为参考块;B视频块在当前编码模式下编码得到预编码B视频块,获取预编码B视频块和对应的已编码或未编码A视频块虚拟绘制得到的重建虚拟绘制块;计算参考块和重建虚拟绘制块的空域失真和时域失真,融合得到绘制失真;载入B视频帧的拉格朗日乘子,获取B视频块的预编码比特数,根据绘制失真、拉格朗日乘子和预编码比特数计算率失真代价;遍历所有编码模式编码,率失真代价最小的编码模式为B视频块的最佳编码模式;获取下一个B视频块编码直到待编码B视频帧编码完成,提高三维视频编码效率。
-
公开(公告)号:CN119743626A
公开(公告)日:2025-04-01
申请号:CN202411872807.4
申请日:2024-12-18
Applicant: 中国科学院深圳先进技术研究院
IPC: H04N19/91 , H04N19/42 , H04N19/85 , H04N19/137
Abstract: 本申请实施例提供了一种基于残差编码的视频二次压缩方法、装置及网络设备,所述方法包括:获取第一视频,并对第一视频进行有损压缩,得到第二视频;确定第一视频和第二视频的残差数据;并基于残差数据确定残差特征和残差特征的上下文特征;将残差特征和残差特征的上下文数据输入到熵模型中,确定概率质量函数,以采取算数编码的方式对残差数据进行处理,确定重构残差;将第二视频的码流和重构残差的码流进行合并,并发送合并码流;本方案可以分析原视频与压缩后的视频的残差,然后对残差进行编码压缩,后续通过恢复残差,并依据残差和压缩后的视频来还原视频,以提升视频质量。
-
公开(公告)号:CN119743613A
公开(公告)日:2025-04-01
申请号:CN202411869923.0
申请日:2024-12-18
Applicant: 中国科学院深圳先进技术研究院
Abstract: 本申请实施例提供了一种基于张量分解和可训练掩码的视频压缩方法及装置,可以应用在发送端,所述方法包括:获取视频数据,并依据视频数据生成视频张量,视频张量包括视频数据的视频帧的像素点的坐标数据和像素特征;依据坐标数据,生成三种张量平面和对应的平面向量,并依据像素特征,确定各张量平面的平面参数和张量平面对应的平面向量的向量参数,形成分解数据;依据分解数据,确定张量平面对应的掩码平面,并依据掩码平面对张量平面的平面参数进行压缩,得到压缩平面;依据压缩平面和平面向量,确定传输数据,并发送给接收端;本方案可以对视频进行压缩后传输,以减少对资源的占用。
-
公开(公告)号:CN118196220A
公开(公告)日:2024-06-14
申请号:CN202410400817.1
申请日:2024-04-03
Applicant: 中国科学院深圳先进技术研究院
IPC: G06T9/00 , G06N3/0464 , G06N3/0455 , G06N3/0985 , G06V10/44 , G06V10/80 , G06V10/82
Abstract: 本申请公开了一种基于端到端神经网络的光场编码方法及系统,运用于光场处理技术领域,其方法包括:获取光场数据,对所述光场数据进行转换,得到重建光场数据;将所述重建光场数据投影至不同的二维子空间作为输入,基于不同的卷积算子所述输入进行处理,输出光场特征;采用通道注意力机制对所述光场特征进行区分重要程度;将所述光场特征进行拼接后输出;相对于传统的技术方案,本申请能够支持全分辨率处理,提高了编码性能。
-
公开(公告)号:CN111818333A
公开(公告)日:2020-10-23
申请号:CN202010550240.4
申请日:2020-06-16
Applicant: 中国科学院深圳先进技术研究院
IPC: H04N19/11 , H04N19/147 , H04N19/176
Abstract: 本申请适用于视频处理技术领域,提供一种帧内预测方法、装置、终端及存储介质,其中方法包括:确定图像块的邻域像素点;从所述邻域像素点中分别确定与所述图像块中的每个像素点对应的参考像素点,所述图像块中的每个像素点与其对应的参考像素点位于同一预设弧线上;对于所述图像块中的每个像素点,将与其对应的所述参考像素点的像素值确定为所述像素点的预测值。该方案使帧内预测的执行能够更贴近360度视频投影后在2D平面中的像素点分布情况,消除360度视频中的空间冗余,提升帧内预测的准确度,提升360度视频的最终编码性能。
-
公开(公告)号:CN110602491A
公开(公告)日:2019-12-20
申请号:CN201910817597.1
申请日:2019-08-30
Applicant: 中国科学院深圳先进技术研究院
IPC: H04N19/11 , H04N19/132 , H04N19/184 , H04N19/186 , H04N21/2343 , H04N21/4402
Abstract: 本申请实施例公开了一种帧内色度预测方法、装置、系统、终端设备、视频编码器、视频解码器及计算机可读存储介质,其中,方法包括:获取已编码或已解码重建的亮度分量;对已编码或已解码重建的亮度分量进行下采样;将预设参量输入至预训练的色度预测卷积神经网络模型中的图像上色子网络,得到图像上色子网络输出的色度分量;其中,预设参量包括下采样后的已编码或已解码重建的亮度分量,或者包括下采样后的已编码或已解码重建的亮度分量和目标参量,目标参量包括编码失真度和已编码或已解码重建的相邻色度块中的至少一种;根据色度分量得出色度预测结果。本申请实施例提供的基于卷积神经网络的帧内色度预测方案的普适性较高,可以节省码率。
-
公开(公告)号:CN103379350B
公开(公告)日:2015-06-03
申请号:CN201210132641.3
申请日:2012-04-28
Applicant: 中国科学院深圳先进技术研究院
IPC: H04N13/00
Abstract: 一种虚拟视点图像后处理方法,包括以下步骤:选取待处理图像帧的彩色图像参考帧及深度图像参考帧;获取包含待处理图像帧中的空洞的待处理窗口,在彩色图像参考帧及深度图像参考帧的搜索范围内,搜索所有与所述待处理窗口相似的匹配窗口;选取与待处理窗口最相似的窗口为最佳匹配窗口,将最佳匹配窗口中与待处理窗口中空洞对应位置的像素填补到待处理窗口中的空洞。上述虚拟视点图像后处理方法,利用绘制过程中参考视点图像的时空相关信息,通过从选取的彩色参考帧和深度参考帧中以搜索、匹配的方式选取与待处理图像存在的由于遮挡、暴露或取整运算所造成的空洞的匹配的像素位置对空洞进行有效地填补,从而能够提高虚拟视点图像的质量。
-
公开(公告)号:CN104469336A
公开(公告)日:2015-03-25
申请号:CN201310443316.3
申请日:2013-09-25
Applicant: 中国科学院深圳先进技术研究院
IPC: H04N13/00 , H04N19/597
Abstract: 面向绘制冗余的低复杂度的多视点深度视频信号的编码方法,用于降低深度视频编码的计算复杂度,并提高虚拟视点质量与深度码率之间的整体性能。首先根据虚拟视点绘制特性,从而获取深度可容忍范围并计算出每个深度值对应的上下限最大差异,进而分析深度视频中的冗余信息。然后,提出快速参考帧选择方法即从列表中选择出最佳参考帧,再通过快速模式选择选择出最佳编码模式。每次进行快速模式选择之前均需先进行快速参考帧选择,并通过设定阈值T1和T2,使在视频失真较小时,终止模式和参考帧选择,从而降低计算复杂度,并提升压缩性能。
-
-
-
-
-
-
-
-
-