-
公开(公告)号:CN104737542B
公开(公告)日:2018-09-25
申请号:CN201380053525.5
申请日:2013-12-24
Applicant: 英特尔公司
Inventor: A·普里
Abstract: 描述了内容自适应熵编码相关的技术。一种用于视频编码的方法,包括:获得用于熵编码的第一视频数据和第二视频数据,其中,第一视频数据和第二视频数据包括不同数据类型,确定用于第一视频数据的第一熵编码技术,其中,第一熵编码技术包括自适应符号运行可变长度编码技术或者自适应代理可变长度编码技术中的至少一个,使用第一编码技术将第一视频数据熵编码,以产生第一压缩的视频数据,并使用第二编码技术将第二视频数据熵编码,以产生第二压缩的视频数据,并且组装第一压缩的视频数据和第二压缩的视频数据,以产生输出比特流。
-
公开(公告)号:CN104737540B
公开(公告)日:2018-05-22
申请号:CN201380053514.7
申请日:2013-11-13
Applicant: 英特尔公司
CPC classification number: H04N19/52 , H04N19/105 , H04N19/117 , H04N19/119 , H04N19/12 , H04N19/124 , H04N19/14 , H04N19/172 , H04N19/176 , H04N19/1887 , H04N19/573 , H04N19/577 , H04N19/61 , H04N19/615 , H04N19/80 , H04N19/82 , H04N19/86 , H04N19/91
Abstract: 描述了一种用于对下一代视频(NGV)编码进行预测和编码的内容自适应划分有关的系统、装置和方法。NGV编码与基于标准的方法不同,这是由于NGV编码自然地将基于重要内容的自适应性并入到视频编码过程以实现更高的压缩。在另一方面,NGV利用了由于自然存在于典型的视频场景中的运动和其他类型的帧间差(增益、模糊、配准)所导致的帧间差。
-
公开(公告)号:CN104885455B
公开(公告)日:2019-02-22
申请号:CN201480003747.0
申请日:2014-01-30
Applicant: 英特尔公司
IPC: H04N19/136 , H04N21/2662
Abstract: 本发明与用于高效下一代视频编码的计算机实现的方法相关。用于视频编码的计算机实现的方法包括:以输入视频顺序并且与多水平层次结构相关联的获取帧的像素数据,所述多水平层次结构包括具有被用作参考帧的至少I‑图片、或P‑图片或二者的基础水平,具有使用基础水平上的帧作为参考的图片的至少一个中间水平,以及具有不被用作参考帧,并且使用其它水平的帧作为参考的图片的最大水平,其中,P‑图片使用相对于顺序的过去帧作为参考,并且其中,最大水平上的图片被提供有选项,来使用过去参考帧、未来参考帧、或二者;并且至少部分地取决于至少一个当前帧的层次结构的水平来确定帧的量化参数,并且其中,每一个帧被给出与该帧所在的水平相关联的级别。
-
公开(公告)号:CN105052140B
公开(公告)日:2019-01-15
申请号:CN201480003751.7
申请日:2014-01-28
Applicant: 英特尔公司
Abstract: 本申请涉及用于视频编码(自适应性熵编码)的计算机实现的方法。一种用于视频编码的计算机实现的方法,包括:对于视频帧的至少部分加载拆分数据、水平/垂直数据、模式数据、以及参考类型数据;确定第一估计的熵编码位成本,其包括用来对拆分数据和模式数据进行联合编码的熵编码位成本,以及用来对水平/垂直数据进行编码的熵编码位成本;确定第二估计的熵编码位成本,其包括用来对拆分数据和模式数据进行分开编码的熵编码位成本以及用来对水平/垂直数据进行编码的熵编码位成本;基于第一估计的熵编码位成本和第二估计的熵编码位成本中的最低者,对于视频帧的至少部分在对拆分数据和模式数据进行联合与分开编码之间选择;基于选择的编码,对拆分数据和模式数据进行联合或者分开熵编码,并且对水平/垂直数据进行熵编码;对参考类型数据进行熵编码;以及输出包括熵编码的拆分数据、模式数据、水平/垂直数据、以及参考类型数据的比特流。
-
公开(公告)号:CN105191309B
公开(公告)日:2018-08-10
申请号:CN201480003732.4
申请日:2014-01-30
Applicant: 英特尔公司
IPC: H04N19/139 , H04N19/51
Abstract: 说明了与视频编码的内容自适应预测距离分析和分层运动估计相关的技术。
-
公开(公告)号:CN105052140A
公开(公告)日:2015-11-11
申请号:CN201480003751.7
申请日:2014-01-28
Applicant: 英特尔公司
Abstract: 本申请涉及用于视频编码(自适应性熵编码)的计算机实现的方法。一种用于视频编码的计算机实现的方法,包括:对于视频帧的至少部分加载拆分数据、水平/垂直数据、模式数据、以及参考类型数据;确定第一估计的熵编码位成本,其包括用来对拆分数据和模式数据进行联合编码的熵编码位成本,以及用来对水平/垂直数据进行编码的熵编码位成本;确定第二估计的熵编码位成本,其包括用来对拆分数据和模式数据进行分开编码的熵编码位成本以及用来对水平/垂直数据进行编码的熵编码位成本;基于第一估计的熵编码位成本和第二估计的熵编码位成本中的最低者,对于视频帧的至少部分在对拆分数据和模式数据进行联合与分开编码之间选择;基于选择的编码,对拆分数据和模式数据进行联合或者分开熵编码,并且对水平/垂直数据进行熵编码;对参考类型数据进行熵编码;以及输出包括熵编码的拆分数据、模式数据、水平/垂直数据、以及参考类型数据的比特流。
-
公开(公告)号:CN104737542A
公开(公告)日:2015-06-24
申请号:CN201380053525.5
申请日:2013-12-24
Applicant: 英特尔公司
Inventor: A·普里
Abstract: 描述了内容自适应熵编码相关的技术。一种用于视频编码的方法,包括:获得用于熵编码的第一视频数据和第二视频数据,其中,第一视频数据和第二视频数据包括不同数据类型,确定用于第一视频数据的第一熵编码技术,其中,第一熵编码技术包括自适应符号运行可变长度编码技术或者自适应代理可变长度编码技术中的至少一个,使用第一编码技术将第一视频数据熵编码,以产生第一压缩的视频数据,并使用第二编码技术将第二视频数据熵编码,以产生第二压缩的视频数据,并且组装第一压缩的视频数据和第二压缩的视频数据,以产生输出比特流。
-
公开(公告)号:CN104737540A
公开(公告)日:2015-06-24
申请号:CN201380053514.7
申请日:2013-11-13
Applicant: 英特尔公司
CPC classification number: H04N19/52 , H04N19/105 , H04N19/117 , H04N19/119 , H04N19/12 , H04N19/124 , H04N19/14 , H04N19/172 , H04N19/176 , H04N19/1887 , H04N19/573 , H04N19/577 , H04N19/61 , H04N19/615 , H04N19/80 , H04N19/82 , H04N19/86 , H04N19/91
Abstract: 描述了一种用于对下一代视频(NGV)编码进行预测和编码的内容自适应划分有关的系统、装置和方法。NGV编码与基于标准的方法不同,这是由于NGV编码自然地将基于重要内容的自适应性并入到视频编码过程以实现更高的压缩。在另一方面,NGV利用了由于自然存在于典型的视频场景中的运动和其他类型的帧间差(增益、模糊、配准)所导致的帧间差。
-
公开(公告)号:CN103339952A
公开(公告)日:2013-10-02
申请号:CN201180061488.3
申请日:2011-12-21
Applicant: 英特尔公司
IPC: H04N21/234
CPC classification number: H04N19/117 , H04N19/124 , H04N19/13 , H04N19/139 , H04N19/14 , H04N19/172 , H04N19/174 , H04N19/176 , H04N19/18 , H04N19/184 , H04N19/46 , H04N19/51 , H04N19/61 , H04N19/70 , H04N19/82 , H04N19/86
Abstract: 描述了用于损害补偿滤波的系统和方法,其可以与视频编码结合使用,或者单独用于后处理。其结合高效的码本表示使用Wiener滤波方法。
-
公开(公告)号:CN104885471B
公开(公告)日:2019-06-28
申请号:CN201380068583.5
申请日:2013-12-27
Applicant: 英特尔公司
Abstract: 描述了与编码/未编码的数据的内容自适应熵编码相关的技术。一种用于视频编码的计算机实现的方法包括步骤:从多个熵编码技术中确定针对编码/未编码的视频数据的所选择的熵编码技术,其中所述多个熵编码技术包括代理可变长度编码技术和符号运行编码技术,使用所述所选择的熵编码技术对与所述编码/未编码的视频数据相关联的处理的比特流熵编码,以生成被编码的编码/未编码的视频数据,并且将所述被编码的编码/未编码的视频数据组装到输出比特流中。
-
-
-
-
-
-
-
-
-