一种基于三维视觉注意力的立体图像质量客观评价方法

    公开(公告)号:CN103200420B

    公开(公告)日:2015-03-25

    申请号:CN201310088062.8

    申请日:2013-03-19

    Applicant: 宁波大学

    Abstract: 本发明公开了一种基于三维视觉注意力的立体图像质量客观评价方法,其首先分别计算原始的无失真的立体图像的独眼图和待评价的失真的立体图像的独眼图,然后计算两个独眼图的显著图及原始的无失真的立体图像的独眼图的中心偏移图、前景图和背景图,再获取三维视觉注意力图像,并对待评价的失真的立体图像的独眼图中的每个像素点的客观评价度量值进行融合,得到待评价的失真的立体图像的图像质量客观评价预测值,优点是获得的三维视觉注意力图像能够较好地反映空间立体视觉信息对注意的影响,使得客观评价结果能更符合人类视觉,从而有效地提高了客观评价结果与主观感知的相关性。

    一种深度图像编码方法
    112.
    发明授权

    公开(公告)号:CN103002306B

    公开(公告)日:2015-03-18

    申请号:CN201210493120.0

    申请日:2012-11-27

    Applicant: 宁波大学

    Abstract: 本发明公开了一种深度图像编码方法,其根据深度失真对虚拟视点图像绘制的影响,并结合人眼的视觉特性得到原始左视点深度图像的最大可容忍失真分布图像,然后通过基于深度图像绘制的方法,得到原始右视点深度图像的绘制图像,接着根据最大可容忍失真分布图像和设定的编码预测结构,对原始左视点深度图像进行编码,得到解码后的左视点深度图像,再根据设定的编码预测结构对原始右视点深度图像与其绘制图像的残差图像进行编码,得到解码后的残差图像,最后根据解码后的右视点深度图像的绘制图像和解码后的残差图像,得到解码后的右视点深度图像的重构图像,优点是本发明方法在保证虚拟视点图像绘制性能的基础上,大大提高了深度图像的编码效率。

    一种自适应图像质量客观评价方法

    公开(公告)号:CN103338380B

    公开(公告)日:2015-03-11

    申请号:CN201310226269.7

    申请日:2013-06-06

    Applicant: 宁波大学

    Abstract: 本发明公开了一种自适应图像质量客观评价方法,其在获取原始的无失真图像和待评价的失真图像中坐标位置相同的两个图像块之间的结构相似度时,不仅利用了原始的无失真图像和待评价的失真图像中的每个图像块中的所有像素点的亮度均值和标准差,及原始的无失真图像和待评价的失真图像中所有的坐标位置相同的两个图像块中的所有像素点之间的协方差,而且还结合了待评价的失真图像的失真类型,使得本发明方法能够从自适应评价的角度出发,根据待评价的失真图像的失真类型确定两个图像块之间的结构相似度,从而提高了图像质量客观评价结果与主观感知之间的一致性。

    一种基于DCT域的边缘强度压缩的图像质量客观评价方法

    公开(公告)号:CN103354617B

    公开(公告)日:2015-03-04

    申请号:CN201310278405.7

    申请日:2013-07-03

    Applicant: 宁波大学

    Abstract: 本发明公开了一种基于DCT域的边缘强度压缩的图像质量客观评价方法,其首先通过分别获取无失真图像和失真图像的亮度分量图的4个方向的系数矩阵,获取无失真图像和失真图像的亮度分量图的全局边缘强度,其次通过获取两个全局边缘强度中的每个8×8的半重叠块的均值、标准差和方差,获取失真图像中相对应的每个区域的敏感因子,接着通过获取两个全局边缘强度中的每个半重叠块的DCT系数矩阵,获取两个全局边缘强度中相对应的两个半重叠块的能量相似性,最后根据敏感因子及能量相似性,获取失真图像的质量评价分数,由于本方法充分去除了人眼的视觉冗余信息,有效利用了人眼比较敏感的边缘强度,因此得到的客观评价结果与人眼主观感知能够保持很好的一致性。

    一种连续变倍体视显微镜齐焦性检测方法

    公开(公告)号:CN102788682B

    公开(公告)日:2015-02-04

    申请号:CN201210260520.7

    申请日:2012-07-25

    Applicant: 宁波大学

    CPC classification number: G01M11/02 G01M11/0264 G01M11/0292 G02B21/241

    Abstract: 本发明公开了一种连续变倍体视显微镜齐焦性检测方法,其通过利用四个清晰度判定函数来联合获取多帧图像对应的四个最大清晰度值,然后利用四个最大清晰度值来确定相对最清晰位置,再通过比较相对最清晰位置下的清晰度值与合焦位置下的清晰度值,判定相对最清晰位置是否为合焦位置,接着通过调整倍率,获得有限个离散倍率下的合焦位置,最后通过拟合得到连续倍率下的齐焦曲线,本发明方法能够自动有效实现体视显微镜的齐焦性检测,且检测精度高,并可有效提高生产效率;此外,本发明方法无需使用者经常干预调整,具有较强的鲁棒性,对绝大多数体视显微镜的齐焦性检测都适用,如果跟自动化装置配合,可大幅度提高生产效率。

    一种立体图像视觉显著图提取方法

    公开(公告)号:CN104243956A

    公开(公告)日:2014-12-24

    申请号:CN201410466553.6

    申请日:2014-09-12

    Applicant: 宁波大学

    Abstract: 本发明公开了一种立体图像视觉显著图提取方法,其首先通过训练构建立体图像的视觉舒适度特征与视觉舒适度预测值的关系模型,然后利用该关系模型来预测立体图像的视觉舒适度,得到视觉舒适度显著图;采用基于图论的视觉显著性模型提取出立体图像的二维显著图;根据区域之间的空间相似性和视差相似性,得到立体图像的深度显著图;最后对二维显著图、深度显著图和视觉舒适度显著图进行融合,得到最终的三维视觉显著图,优点是获得的三维视觉显著图能够很好地符合显著语义的特征。

    一种基于中心凹恰可觉察失真模型的深度视频编码方法

    公开(公告)号:CN102724525B

    公开(公告)日:2014-11-05

    申请号:CN201210180891.4

    申请日:2012-06-01

    Applicant: 宁波大学

    Abstract: 本发明公开了一种基于中心凹恰可觉察失真模型的深度视频编码方法,其首先计算对左右视点彩色视频和左右视点深度视频进行中间虚拟视点绘制得到的中间虚拟视点视频中的每帧中的每个像素的全局恰可觉察失真,然后根据全局恰可觉察失真获取几何偏移的中间虚拟视点视频,接着根据几何偏移获取左视点深度视频的最大可容忍失真视频,再根据最大可容忍失真视频获取左视点深度视频的每帧中的每个宏块的可增加编码量化参数,该方法在能够维持虚拟视点视觉感知质量的前提下,有效节约了深度视频的编码码率,同时大大提高了深度视频序列的压缩编码效率,节省的码流可达到11.00~23.34%。

    一种立体图像客观质量评价方法

    公开(公告)号:CN102567990B

    公开(公告)日:2014-07-16

    申请号:CN201110405275.X

    申请日:2011-12-08

    Applicant: 宁波大学

    Abstract: 本发明公开了一种立体图像客观质量评价方法,其通过对无失真立体图像和失真立体图像的左右视点图像进行小波变换,提取各子带的最小可视误差,计算各个子带的绝对差值图矩阵中敏感系数在各自子带所占比例;然后通过评价无失真立体图像和失真立体图像的左右视点图像的绝对差值图像强边缘和弱边缘的方向及结构相似度,采用线性组合的方式得到立体感知质量的评价;最后将左右视点图像的质量和立体感知质量相结合,得到对立体图像质量的最终评价结果,本发明有效利用了Watson模型、视觉灵敏度带通、多通道效应以及立体感知等人眼视觉特性,在评价左视点图像和右视点图像质量的基础上同时评价立体感知,提高了立体图像客观质量评价与主观感知之间的相关性。

    一种立体图像质量客观评价方法

    公开(公告)号:CN102595185B

    公开(公告)日:2014-06-25

    申请号:CN201210046292.3

    申请日:2012-02-27

    Applicant: 宁波大学

    Abstract: 本发明公开了一种立体图像质量客观评价方法,其通过模拟人类视觉系统处理立体图像的过程,获得立体图像在人类视觉系统中形成的cyclopean图像,该cyclopean图像是由遮挡区域、双目融合区域、双目掩蔽区域三个区域组成,根据图像奇异值表征图像属性具有较强的稳定性,结合人类视觉系统处理cyclopean图像中不同区域特点,采用测试立体图像和参考立体图像对应的cyclopean图像之间的奇异值距离来表示测试立体图像对应的cyclopean图像的失真程度,从而最终获得测试立体图像的整体视觉质量,本发明方法能够客观地反映立体图像受到各种图像处理和压缩方法影响下视觉质量的变化情况,与人类视觉系统特性相一致。

    一种三维视频编码的深度和彩色码率分配方法

    公开(公告)号:CN102685531B

    公开(公告)日:2014-04-16

    申请号:CN201210122017.5

    申请日:2012-04-24

    Applicant: 宁波大学

    Abstract: 本发明公开了一种三维视频编码的深度和彩色码率分配方法,其在获得最优的虚拟视点绘制质量情况下,通过二次拟合方法建立对原始左视点彩色视频、原始右视点彩色视频编码量化步长与原始左视点深度视频、原始右视点深度视频编码量化步长的关系模型,进而将彩色和深度比特分配问题描述为一个标准一元三次方程,再获得在一定码率下对原始左视点彩色视频、原始右视点彩色视频和原始左视点深度视频、原始右视点深度视频进行编码的最佳初始编码量化参数,最后采用最佳初始编码量化参数分别对原始左视点彩色视频、原始右视点彩色视频与原始左视点深度视频、原始右视点深度视频进行编码,不仅提高了虚拟视点视频的率失真性能,而且简化了码率分配操作过程。

Patent Agency Ranking