-
公开(公告)号:KR101854003B1
公开(公告)日:2018-06-14
申请号:KR1020140081943
申请日:2014-07-01
Applicant: 경희대학교 산학협력단 , 한국전자통신연구원
IPC: H04N19/573 , H04N19/597 , H04N19/52 , H04N19/70 , H04N19/176 , H04N19/59
CPC classification number: H04N19/597 , H04N19/105 , H04N19/139 , H04N19/176 , H04N19/187 , H04N19/463 , H04N19/52 , H04N19/70
Abstract: 본발명의일 실시예예따른복수의시점(view)을포함하는비디오복호화방법은현재블록의주변블록및 시간대응블록의움직임정보를이용하여기본병합움직임후보리스트를구성하는단계와; 상기현재블록과상이한시점영상및 깊이정보맵의움직임정보를이용하여확장병합움직임후보리스트를구성하는단계를포함하고, 상기기본병합움직임후보리스트에포함되어있는주변블록움직임정보가시점합성예측을통하여유도되었는지여부를판단하는단계를포함할수 있다.
-
12.
公开(公告)号:KR1020150102748A
公开(公告)日:2015-09-07
申请号:KR1020150029060
申请日:2015-03-02
Applicant: 한국전자통신연구원 , 경희대학교 산학협력단
IPC: H04N19/597 , H04N13/00 , H04N19/91 , H04N19/503
CPC classification number: H04N19/597 , H04N13/161 , H04N19/503 , H04N19/91
Abstract: 본 발명은 머지 후보를 유도하는 단계, 머지 후보의 우선 순위에 대한 변경이 필요한지 여부를 결정하는 단계, 머지 후보의 우선 순위에 대한 변경이 필요한 경우, 머지 후보의 우선 순위를 변경하는 단계 및 상기 머지 후보를 변경된 머지 후보의 우선 순위에 기반하여 머지 후보 리스트에 추가하는 단계를 포함하는 3차원 영상 부호화 방법을 제공한다.
Abstract translation: 本发明提供了一种对3D图像进行编码的方法,包括步骤:导出合并候选; 确定是否需要更改合并候选人的优先级; 如果需要改变优先级,则改变合并候选人的优先级; 以及基于所述合并候选者的改变的优先级,将所述合并候选者添加在合并候选列表中。
-
公开(公告)号:KR1020170059901A
公开(公告)日:2017-05-31
申请号:KR1020160155996
申请日:2016-11-22
Applicant: 한국전자통신연구원 , 경희대학교 산학협력단
IPC: H04N19/103 , H04N19/176 , H04N19/503 , H04N19/119 , H04N19/124 , H04N19/91
Abstract: 본발명은영상부호화/복호화방법및 장치에관한것이며, 보다구체적으로는보다구체적으로는다시점비디오에서예측을수행하는방법에관한것이다. 이를위한영상부호화방법은, 현재블록과, 상기현재블록에이웃하는이웃블록이동일한시점을갖고있는지여부를결정하는단계; 상기현재블록과상기이웃블록이상이한시점을갖고있는경우, 상기이웃블록의예측정보를상기현재블록과상기이웃블록사이의시점차이에기초하여변환하는단계; 및상기변환된예측정보를이용하여상기현재블록에대한예측을수행하는단계를포함한다.
Abstract translation: 视频编码/解码方法和设备技术领域本发明涉及视频编码/解码方法和设备,并且更具体地涉及在多视点视频中执行预测的方法。 该方法包括以下步骤:确定当前块和与当前块相邻的相邻块是否具有相同的视点; 如果当前块和相邻块具有一个视点,则基于当前块和相邻块之间的视点差来变换相邻块的预测信息; 并且使用变换后的预测信息对当前块执行预测。
-
14.
公开(公告)号:KR1020160002344A
公开(公告)日:2016-01-07
申请号:KR1020150074951
申请日:2015-05-28
Applicant: 한국전자통신연구원 , 경희대학교 산학협력단
IPC: H04N19/597 , H04N19/176 , H04N19/50
CPC classification number: H04N13/161 , H04N13/111 , H04N19/176 , H04N19/44 , H04N19/52 , H04N19/597
Abstract: 본발명은제1 후보블록을머지후보리스트에삽입하는단계, 상기제1 후보블록에서시점합성예측(View Synthesis Prediction, VSP)이사용된경우, VSP가사용되었음을나타내는정보를생성하는단계및 상기 VSP가사용되었음을나타내는정보가존재하는경우, 머지후보리스트에현재블록의 VSP 후보를삽입하지않는단계를포함하는 3차원영상복호화방법을제공한다.
Abstract translation: 在本发明中,提供了一种三维图像解码方法,包括:将第一候选块插入到合并候选列表中的步骤; 生成表示当在第一候选块中使用VSP时使用视图合成预测(VSP)的信息的步骤; 以及当存在表示所使用的VSP的信息时,不将当前块的VSP候选者插入到合并候选列表中的步骤。
-
公开(公告)号:KR1020150047414A
公开(公告)日:2015-05-04
申请号:KR1020140048066
申请日:2014-04-22
Applicant: 한국전자통신연구원 , 경희대학교 산학협력단
IPC: H04N19/597
CPC classification number: H04N19/51 , H04N19/176 , H04N19/52 , H04N19/597
Abstract: 복수의시점(view)을포함하는비디오부호화/복호화방법및 장치가개시된다. 상기복수의시점을포함하는비디오복호화방법은현재 PU(Precidtion Unit)에대한기본병합움직임후보를유도하여병합움직임후보리스트를구성하는단계, 상기현재 PU가깊이정보맵 또는의존적인시점인경우, 상기현재 PU에대한확장병합움직임후보를유도하는단계및 상기병합움직임후보리스트에상기확장병합움직임후보를추가하는단계를포함한다.
Abstract translation: 公开了一种用于包含多个视图的视频编码/解码的方法和装置。 包含多个视图的视频编码/解码方法包括:用于引导当前预测单元(PU)的基本合并移动候选的步骤,以生成合并运动候选的列表; 如果当前PU是深度信息图或从属视图,则用于诱导用于当前PU的延伸合并移动候选的步骤; 以及将扩展合并移动候选者添加到合并移动候选者列表的步骤。
-
16.
公开(公告)号:KR1020150043164A
公开(公告)日:2015-04-22
申请号:KR1020130122265
申请日:2013-10-14
Applicant: 한국전자통신연구원 , 경희대학교 산학협력단
CPC classification number: H04N13/271 , H04N13/161
Abstract: 1. 청구범위에기재된발명이속한기술분야본 발명은비디오의부호화/복호화방법및 장치에관한것임. 2. 발명이해결하려고하는기술적과제본 발명에서는비디오코덱에서구현복잡도및 계산복잡도를감소시키는방법을제안한다. 3. 발명의해결방법의요지본 발명은부호화/복호화모듈의재사용성을증가시키는방법을포함함. 4. 발명의중요한용도본 발명은비디오부호화에서부호화및 복호화의구현복잡도및 계산복잡도를감소시킬수 있다.
Abstract translation: 本发明涉及用于对视频进行编码和解码的设备和方法。 本发明提出了一种降低视频编解码器的实现复杂度和计算复杂度的方法。 此外,本发明提供了一种增加编码/解码模块的可重用性的方法。 本发明能够降低编码视频时的编码和解码的实现复杂度和计算复杂度。
-
公开(公告)号:KR1020140048784A
公开(公告)日:2014-04-24
申请号:KR1020130006727
申请日:2013-01-21
Applicant: 경희대학교 산학협력단 , 한국전자통신연구원
CPC classification number: H04N19/597 , H04N13/128 , H04N13/161 , H04N19/513 , H04N19/52 , H04N19/547 , H04N19/70
Abstract: The present invention relates to a method and an apparatus for inducing motion information by using a limited depth information value. The present invention includes a method for allowing several blocks to share and use a specific depth information value to decrease a memory bandwidth due to approach of the depth information value when motion information is induced by using the depth information value. Thus, the present invention can reduce the memory bandwidth of coding and decoding in a video coding process.
Abstract translation: 本发明涉及一种通过使用有限深度信息值来诱导运动信息的方法和装置。 本发明包括一种方法,用于当通过使用深度信息值诱发运动信息时,允许多个块共享和使用特定深度信息值以减小由于深度信息值的接近而导致的存储器带宽。 因此,本发明可以减少视频编码处理中的编码和解码的存储器带宽。
-
公开(公告)号:KR1020170059902A
公开(公告)日:2017-05-31
申请号:KR1020160155997
申请日:2016-11-22
Applicant: 한국전자통신연구원 , 경희대학교 산학협력단
IPC: H04N19/103 , H04N19/50 , H04N19/40 , H04N19/124 , H04N19/91
Abstract: 본발명은영상부호화/복호화방법및 장치에관한것이며, 보다구체적으로는다시점비디오의참조영상을생성하는방법및 장치에관한것이다. 이를위한영상부호화방법은, 제1 시점을갖는제1 영상과다른시점을갖는제2 영상이존재하는경우, 상기제2 영상을상기제1 시점으로변환하는단계, 상기제1 영상의일면에상기제2 영상을부가하여참조영상을생성하는단계, 및상기참조영상을참조픽처리스트에저장하는단계를포함한다.
Abstract translation: 用于生成多视点视频的参考图像的方法和设备技术领域本发明涉及图像编码/解码方法和设备,并且更具体地涉及用于生成多视点视频的参考图像的方法和设备 图像编码方法可以进一步包括:当具有第一视点的第一图像和具有不同视点的第二图像存在时,将第二图像转换为第一视图, 添加第二图像以生成参考图像,并将参考图像存储在参考图片列表中。
-
公开(公告)号:KR1020150114913A
公开(公告)日:2015-10-13
申请号:KR1020150046781
申请日:2015-04-02
Applicant: 한국전자통신연구원 , 경희대학교 산학협력단
IPC: H04N19/51 , H04N19/513 , H04N19/597
Abstract: 본발명은가장높은우선순위를가지는공간적병합움직임후보가사용가능한지에대해판단하는단계, 가장높은우선순위를가지는공간적병합움직임후보가사용가능한경우, 가장높은우선순위를가지는공간적병합움직임후보가변이벡터를가지고있는지에대해판단하는단계및 가장높은우선순위를가지는공간적병합움직임후보가변이벡터를가지고있는경우, 가장높은우선순위를가지는공간적병합움직임후보의변이벡터에임의의값을더하여수정변이벡터를유도하는단계를포함하는수정변이벡터를유도하는영상복호화방법을제공한다.
Abstract translation: 提供一种导出修改的视差矢量的图像解码方法,其包括以下步骤:确定是否可以使用具有最高优先级的空间合并运动候选; 如果可以使用具有最高优先级的空间合并运动候选,则确定具有最高优先级的空间合并运动候选是否具有视差向量; 并且如果具有最高优先级的空间合并运动候选具有视差矢量,则通过将具有最高优先级的空间合并运动候选的视差矢量添加任意值来导出修改的视差向量。
-
公开(公告)号:KR1020170059422A
公开(公告)日:2017-05-30
申请号:KR1020160154386
申请日:2016-11-18
Applicant: 한국전자통신연구원 , 경희대학교 산학협력단
IPC: H04N19/103 , H04N19/107 , H04N19/50 , H04N19/176
CPC classification number: H04N19/103 , H04N19/107 , H04N19/176 , H04N19/50
Abstract: 본발명은기하변환픽처를활용한비디오부호화/복호화방법및 장치에관한것이다. 본발명에따른영상의부호화방법은참조픽처를기하변환하여기하변환픽처를생성하는기하변환픽처생성단계, 및기하변환픽처를참조한화면간 예측을수행하여현재블록의제1 예측블록을생성하는제1 예측블록생성단계를포함할수 있다.
Abstract translation: 本发明涉及使用几何变换图片的视频编码/解码方法和设备。 根据本发明的图像编码方法执行与参照几何变换图像的画面间预测产生步骤,和几何变换图像,用于产生一个几何变换画面时的参照画面的几何变换与当前块的产生第一预测块 1预测块生成步骤。
-
-
-
-
-
-
-
-
-