基于深度学习的视频盲去噪方法及装置

    公开(公告)号:CN111539879A

    公开(公告)日:2020-08-14

    申请号:CN202010294520.3

    申请日:2020-04-15

    Abstract: 本发明提供一种基于深度学习的视频盲去噪方法及装置,该方法包括:从待去噪视频中取包含预设数量帧的视频序列,将该视频序列的中间帧作为带噪参考帧,对带噪参考帧和视频序列中的其他每一帧图像进行光流估计,获得多个两帧图像之间的光流场;根据光流场将视频序列中的其他每一帧图像分别转换到带噪参考帧进行配准,获得多帧带噪配准图像;基于卷积神经网络构建去噪网络,以多帧带噪配准图像作为网络输入,以带噪参考帧作为网络的参考图像,利用nose2noise方法进行逐帧迭代训练和去噪,获得带噪参考帧对应的去噪图像。该方案即可仅利用单个视频而无需获得大量的噪声数据、干净的数据、准确的噪声分布模型,就能实现对视频的盲去噪。

    一种图像盲去噪系统
    2.
    发明公开

    公开(公告)号:CN111127356A

    公开(公告)日:2020-05-08

    申请号:CN201911307908.6

    申请日:2019-12-18

    Abstract: 本发明涉及一种图像盲去噪系统,包括:盲去噪网络模块,用于去除输入图像的噪声,盲去噪网络模块使用预训练模型直接对带噪图像进行重构以减少生成最佳重构图像所需的迭代次数。采用具有跳跃连接的编码器-解码器结构,仅使用高斯白噪声作为网络输入,使用带噪图像作为参考图像,使用均方误差作为损失函数;盲图像质量评估网络模块,用于对经过盲去噪网络模块重建的噪声图像进行评估,并决定何时终止盲去噪网络模块的迭代过程,选取评分最高的重构图像作为最终的去噪图像。

    一种图像去噪中恢复细节的系统

    公开(公告)号:CN111047537A

    公开(公告)日:2020-04-21

    申请号:CN201911307899.0

    申请日:2019-12-18

    Abstract: 本发明涉及一种图像去噪中恢复细节的系统,包括:初始去噪模块,用于从带噪的图像y中提取初步去噪的图像信息S;细节恢复模块,用于估算缺失的细节部分D,并将估算出的细节信息记为 初始去噪模块将初步去噪的图像信息S传送至细节恢复模块,将无细节的图像信息S与细节信息结合,得到最终去噪结果其中,初始去噪模块和细节恢复模块均通过深度神经网络子网络实现。该系统能够显著提高去噪后图像细节清晰度,增强图像对于人眼的可识别性,改善图像主观质量,同时提高客观指标:去噪的峰值信噪比PSNR,以及结构相似性SSIM。

    一种图像增强方法和计算机可读存储介质

    公开(公告)号:CN107563984A

    公开(公告)日:2018-01-09

    申请号:CN201711051843.4

    申请日:2017-10-30

    Abstract: 本发明公开了一种图像增强方法和计算机可读存储介质,提高图像质量。所述方法包括:将待处理图像从RGB颜色空间转换到HSI颜色空间;对所述待处理图像的亮度分量进行直方图分布统计和直方图均衡,得到预处理图像的像素值;用指导图像的亮度分量的直方图分布校正所述预处理图像的亮度分量的直方图分布,获取校正后的图像的亮度分量,所述指导图像为与所述待处理图像内容相关且质量较所述待处理图像高的图像的全部或局部或所述待处理图像的局部;用所述校正后的图像的亮度分量将图像从HSI颜色空间转换到RGB颜色空间。通过利用相似场景质量好的清晰图像对质量差的图像进行指导增强,能够有效的提高图像的对比度,增强图像的细节。

    投影触摸板中用户手指参数的获取方法和系统

    公开(公告)号:CN109799928B

    公开(公告)日:2022-06-17

    申请号:CN201711135967.0

    申请日:2017-11-16

    Abstract: 本发明提供一种投影触摸板中用户手指参数的获取方法和系统,包括:拍摄投影平面的当前图像,对当前图像的俯视图和对比图像做差值运算得到差值图像,判断差值图像中是否包含用户手指轮廓,如果是,提取差值图像中的用户手指轮廓,解码用户手指轮廓上每个点在差值图像上的二维坐标,确定用户手指的主方向和指腹宽度a;根据主方向,确定用户手指轮廓最远端的指尖点Pf和平面中轴线,取平面中轴线上的N个点为参考点,计算差值图像中Pf和N个参考点的三维坐标;根据Pf和N个参考点的三维坐标计算用户手指参数Pi的三维坐标。基于本发明的方法,解决了投影触摸板上用户如何操控光标的问题。

    隐含结构光的解码方法及装置

    公开(公告)号:CN111582310A

    公开(公告)日:2020-08-25

    申请号:CN202010268291.8

    申请日:2020-04-08

    Abstract: 本发明提供一种隐含结构光的解码方法及装置,该方法包括:对摄像头拍摄的图像进行遍历,获取每个像素点的灰度值和理想邻域灰度分布;根据像素点的灰度值和理想邻域灰度分布,结合预设的输出图像完成条纹提取并输出更新完成的输出图像;对更新完成的输出图像中的条纹中心点进行分类,获得条纹分类结果;根据条纹分类结果确定更新完成的输出图像中的条纹和结构光图像中的条纹的对应关系;利用极线约束法,结合所述更新完成的输出图像中的条纹和结构光图像中条纹的对应关系,对所有条纹中心点进行解码。该方案能在保证精度的基础上,高效且鲁棒的实现对隐含结构光图像解码。

    隐含结构光的解码方法及装置

    公开(公告)号:CN111582310B

    公开(公告)日:2022-05-06

    申请号:CN202010268291.8

    申请日:2020-04-08

    Abstract: 本发明提供一种隐含结构光的解码方法及装置,该方法包括:对摄像头拍摄的图像进行遍历,获取每个像素点的灰度值和理想邻域灰度分布;根据像素点的灰度值和理想邻域灰度分布,结合预设的输出图像完成条纹提取并输出更新完成的输出图像;对更新完成的输出图像中的条纹中心点进行分类,获得条纹分类结果;根据条纹分类结果确定更新完成的输出图像中的条纹和结构光图像中的条纹的对应关系;利用极线约束法,结合所述更新完成的输出图像中的条纹和结构光图像中条纹的对应关系,对所有条纹中心点进行解码。该方案能在保证精度的基础上,高效且鲁棒的实现对隐含结构光图像解码。

    基于深度学习的视频盲去噪方法及装置

    公开(公告)号:CN111539879B

    公开(公告)日:2023-04-14

    申请号:CN202010294520.3

    申请日:2020-04-15

    Abstract: 本发明提供一种基于深度学习的视频盲去噪方法及装置,该方法包括:从待去噪视频中取包含预设数量帧的视频序列,将该视频序列的中间帧作为带噪参考帧,对带噪参考帧和视频序列中的其他每一帧图像进行光流估计,获得多个两帧图像之间的光流场;根据光流场将视频序列中的其他每一帧图像分别转换到带噪参考帧进行配准,获得多帧带噪配准图像;基于卷积神经网络构建去噪网络,以多帧带噪配准图像作为网络输入,以带噪参考帧作为网络的参考图像,利用nose2noise方法进行逐帧迭代训练和去噪,获得带噪参考帧对应的去噪图像。该方案即可仅利用单个视频而无需获得大量的噪声数据、干净的数据、准确的噪声分布模型,就能实现对视频的盲去噪。

    投影触摸板中用户手指参数的获取方法和系统

    公开(公告)号:CN109799928A

    公开(公告)日:2019-05-24

    申请号:CN201711135967.0

    申请日:2017-11-16

    Abstract: 本发明提供一种投影触摸板中用户手指参数的获取方法和系统,包括:拍摄投影平面的当前图像,对当前图像的俯视图和对比图像做差值运算得到差值图像,判断差值图像中是否包含用户手指轮廓,如果是,提取差值图像中的用户手指轮廓,解码用户手指轮廓上每个点在差值图像上的二维坐标,确定用户手指的主方向和指腹宽度a;根据主方向,确定用户手指轮廓最远端的指尖点Pf和平面中轴线,取平面中轴线上的N个点为参考点,计算差值图像中Pf和N个参考点的三维坐标;根据Pf和N个参考点的三维坐标计算用户手指参数Pi的三维坐标。基于本发明的方法,解决了投影触摸板上用户如何操控光标的问题。

    一种部分积求和阵列设计方法及相关组件

    公开(公告)号:CN118092859A

    公开(公告)日:2024-05-28

    申请号:CN202410312973.2

    申请日:2024-03-19

    Applicant: 清华大学

    Abstract: 本发明提供一种部分积求和阵列设计方法及相关组件,该方法包括:将部分积求和阵列划分为若干个子阵列,并确定每个子阵列的翻转活动性;子阵列的翻转活动性包括阵列输入端的活动值和阵列输出端的活动值;基于子阵列的翻转活动性,根据预设子阵列排布算法确定所有子阵列中阵列输入端、加法器的排布方式,以使第一阵列的计算路径长度短于第二阵列的计算路径长度;计算路径长度为阵列输入端经加法器到阵列输出端的路径长度;第一阵列的翻转活动性高于第二阵列的翻转活动性。本发明充分利用子阵列的翻转活动性,减少部分积求和阵列动态能耗,以此来保证神经网络的高速运转以适应现代社会中更复杂多元化的需求。

Patent Agency Ranking