-
公开(公告)号:CN116934644A
公开(公告)日:2023-10-24
申请号:CN202310882169.3
申请日:2023-07-18
Applicant: 宁波大学
Abstract: 本申请提供了一种水下图像协同增强方法,获取水下原始图像对,然后基于暗通道先验提取水下原始图像对应的暗通道特征图。接着通过暗通道特征图作为引导,并融合自注意力Transformer模块,提取水下原始图像对的原始特征图对。再从原始特征图对中通过基于二阶统计量的通道和空间Transformer模块,提取全局特征图对。进一步地,通过特征Transformer交互模块获取特征图对相关性,得到增强特征图对。最后将增强特征图对进行还原,得到水下增强图像对。本申请利用相同水下场景采集的多张图像之间相似的退化特征,采用协同处理和联合学习策略,从而对水下图像进行互补,实现共同增强,有效提高增强后水下图像的质量。
-
公开(公告)号:CN116402908A
公开(公告)日:2023-07-07
申请号:CN202310291552.1
申请日:2023-03-23
Applicant: 宁波大学
IPC: G06T11/00 , G06N3/0464 , G06N3/088
Abstract: 本发明公开了一种基于异构式成像的密集光场图像重建方法,其构建了共享网络参数的前向光场重建模块和后向光场重建模块,其中前向光场重建模块是从输入数据中重建密集光场图像,后向光场重建模块是从由前向光场重建模块所生成的数据中重建原始输入数据,进而二者构成循环一致性约束以实现无监督学习;以上两个重建模块均包含深度估计器、光流估计器和遮挡预测器,首先利用深度估计器和光流估计器来从输入数据中估计场景的深度信息以及几何关系;之后利用绘制技术以合成初始的密集光场图像;最后,通过遮挡预测器来修复初始的密集光场图像中的绘制误差以提高重建质量;优点是能有效地从异构式成像数据中重建密集光场图像,并恢复角度一致性。
-
公开(公告)号:CN113179403B
公开(公告)日:2023-06-06
申请号:CN202110344130.7
申请日:2021-03-31
Applicant: 宁波大学
IPC: H04N19/124 , H04N19/146 , H04N19/182 , H04N19/186 , G06N3/08 , G06N3/0464 , G06N3/048
Abstract: 本发明公开了一种基于深度学习重建的水下视频对象编码方法,其结合水下视频在实际观察监测当中存在明显用户感兴趣信息与用户非感兴趣信息的应用特点,针对水下视频对象进行编码,减小了水下视频编码所需要编码的数据总量;在对象编码过程中,通过角点信息编码、对象掩膜编码以及少量关键帧编码的方式,进一步减小了水下视频编码所需要编码的数据总量,达到了低码率编码的目的;在解码端,通过基于深度学习重建的方法,构建了一个卷积神经网络以提升在低码率编码条件下的解码端视频对象质量,通过本发明方法对水下视频对象进行编码解决了水下低码率条件下高效编码的问题。
-
公开(公告)号:CN108830790B
公开(公告)日:2022-09-13
申请号:CN201810467095.6
申请日:2018-05-16
Applicant: 宁波大学
IPC: G06T3/40
Abstract: 本发明涉及一种基于精简卷积神经网络的快速视频超分辨率重建方法,其既能利用视频帧之间的邻域信息,又保证重建速度。首先,考虑到输入的尺寸大小会直接影响网络的运算速度,本发明网络省去传统方法的预插值过程,直接对多个低分辨率输入视频帧提取特征,并进行多维特征通道融合;接着,为了避免网络中产生零梯度而丢失视频的重要信息,采用参数线性纠正单元作为激活函数,并采用更小的滤波器尺寸调整网络结构以进行多层映射;最后,在网络末端添加反卷积层上采样得到重建视频。同时,本发明还采用网络迁移策略快速实现了不同缩放因子下的重建模型,重建的视频图像中能够保留更多高频细节信息,同时重建速度更快。
-
公开(公告)号:CN113781333A
公开(公告)日:2021-12-10
申请号:CN202110987634.0
申请日:2021-08-26
Applicant: 宁波大学
Abstract: 本发明涉及一种基于引导滤波的GAN网络对水下图像进行处理的方法,包括:获取原始的水下失真图像;将原始的水下失真图像利用引导滤波进行分解,分解成低频水下图像Ilf和高频水下图像Ihf;将生成的低频水下图像Ilf和高频水下图像Ihf同时输入到GAN网络中,生成增强后的低频水下图像以及增强后的高频水下图像将增强后的低频水下图像和增强后的高频水下图像通过像素级相加得到第一阶段的增强水下图像Imid,将第一阶段的增强水下图像Imid输入细化模块中,对水下图像Imid进行增强,生成了最后的水下图像Iout,对生成的最后的水下图像Iout进行监督学习,将经过监督学习的水下图像Iout和真实的水下图像输入到判别器网络中进行打分。
-
公开(公告)号:CN108769677B
公开(公告)日:2021-07-30
申请号:CN201810547533.X
申请日:2018-05-31
Applicant: 宁波大学
IPC: H04N19/124 , H04N19/30 , H04N19/176 , H04N19/117 , G06K9/62
Abstract: 本发明涉及一种基于感知的高动态范围视频动态范围可分级编码方法,并利用视觉感知去除编码冗余,提高了动态范围可分级编码的效率。首先,提出了基于色调映射的动态范围可分级模型,将HDR视频分解成为一个SDR视频和多个RSFs序列;然后,考虑感知特性分别提出基于信息熵分析和内容分割两种方案,根据SDR视频帧内容对RSFs进行感知滤波处理;最后,在解码端重建在MDR显示设备上显示的SDR视频和HDR视频。本方法与此前的研究工作相比,考虑了色调映射操作在视频编码中的影响,并结合感知特性更好地处理了RSFs。实验结果表明,所提出方法能有效提高编码性能。
-
公开(公告)号:CN113179403A
公开(公告)日:2021-07-27
申请号:CN202110344130.7
申请日:2021-03-31
Applicant: 宁波大学
IPC: H04N19/124 , H04N19/146 , H04N19/182 , H04N19/186 , G06N3/08 , G06N3/04
Abstract: 本发明公开了一种基于深度学习重建的水下视频对象编码方法,其结合水下视频在实际观察监测当中存在明显用户感兴趣信息与用户非感兴趣信息的应用特点,针对水下视频对象进行编码,减小了水下视频编码所需要编码的数据总量;在对象编码过程中,通过角点信息编码、对象掩膜编码以及少量关键帧编码的方式,进一步减小了水下视频编码所需要编码的数据总量,达到了低码率编码的目的;在解码端,通过基于深度学习重建的方法,构建了一个卷积神经网络以提升在低码率编码条件下的解码端视频对象质量,通过本发明方法对水下视频对象进行编码解决了水下低码率条件下高效编码的问题。
-
公开(公告)号:CN110958443B
公开(公告)日:2021-06-29
申请号:CN201911293110.0
申请日:2019-12-16
Applicant: 宁波大学
IPC: H04N13/161 , H04N19/103 , H04N19/176 , H04N19/42 , H04N19/70
Abstract: 本发明公开了一种360度视频帧间快速编码方法,其根据360度视频的内容特性,指导运动块和静止块、边缘块和非边缘块等不同区域使用不同的划分深度和预测编码模式搜索策略,从而可以根据编码单元的运动属性、纹理特性以及与当前编码单元相邻的已处理的编码单元的最优预测编码模式等信息判断是否跳过某些深度下的编码单元的搜索,且对于每个编码单元的最优预测编码模式的搜索,其所需遍历的预测编码模式的数量也有所减少,达到了有效降低360度视频编码计算复杂度、节省编码时间的目的。
-
公开(公告)号:CN107862646B
公开(公告)日:2021-04-13
申请号:CN201710885604.2
申请日:2017-09-27
Applicant: 宁波大学
Abstract: 本发明公开了一种高动态范围图像信息隐藏方法,其在隐秘信息嵌入中,获取原始高动态范围图像中的每个像素点的三个通道值;然后根据每个像素点的每个通道值及对应的5位指数位,确定每个像素点的每个通道值中待嵌入信息的有效位置;再在每个像素点的每个通道值中嵌入信息,得到嵌有隐秘信息的高动态范围图像;在隐秘信息提取中,获取嵌有隐秘信息的高动态范围图像中的每个像素点的三个通道值;然后得到每个像素点的每个嵌有信息的通道值中信息的嵌入位置;再从每个像素点的每个嵌有信息的通道值中提取出信息,提取得到隐秘信息序列;优点是能够在OpenEXR格式的高动态范围图像中嵌入隐秘信息,当嵌入率为30位每像素时嵌入隐秘信息的图像仍能高度保真。
-
公开(公告)号:CN110225260B
公开(公告)日:2021-02-19
申请号:CN201910437006.8
申请日:2019-05-24
Applicant: 宁波大学
Abstract: 本发明公开了一种基于生成对抗网络的立体高动态范围成像方法,考虑到立体高动态范围成像是将立体成像技术与高动态范围成像技术相结合,假设目标视点是左视点,且左视点属于欠曝光,右视点属于过曝光,其核心在于生成左视点的多曝光序列;将生成的左视点过曝光图像与原始的左视点欠曝光图像组成多曝光序列,利用构建的视点融合生成对抗网络来完成高动态范围图像融合任务;采用三幅不同曝光图像生成标签图像,以使视点融合生成对抗网络学习低质量融合图像与高质量融合图像之间的转换关系;优点是其既能降低传统方法中多步骤处理的复杂性,并减少误差累积,又能提高生成图像的整体对比度和细节保真度。
-
-
-
-
-
-
-
-
-