基于物理启发的轻量级深度学习压缩成像方法及装置

    公开(公告)号:CN117853336A

    公开(公告)日:2024-04-09

    申请号:CN202311867153.1

    申请日:2023-12-28

    Applicant: 安徽大学

    Abstract: 本发明涉及一种基于物理启发的轻量级深度学习压缩成像方法及装置。该方法包括以下步骤:构建压缩全息感知模型;利用压缩全息感知模型获取低维衍射强度,利用计算超分重建方法构建计算成像框架,利用计算成像框架从所述低维衍射强度中恢复复值振幅;分别构建基于LIST层的轻量化计算成像框架与距离生成网络;利用轻量化计算成像框架和所述距离生成网络,确定轻量级深度学习压缩全息成像模型;利用轻量级深度学习压缩全息成像模型,进行压缩全息成像。本发明的方法耗费更少的时间,尤其是在低维衍射强度条件时同时实现更高质量的复振幅重建和更精准的重建距离估计。

    一种基于自监督深度学习的三维压缩成像方法及装置

    公开(公告)号:CN116704121A

    公开(公告)日:2023-09-05

    申请号:CN202310562314.X

    申请日:2023-05-16

    Applicant: 安徽大学

    Abstract: 本发明涉及一种基于自监督深度学习的三维压缩成像方法及装置。该方法包括:采用基于编码测量的压缩成像方法对三维物体进行成像;构建自监督深度学习网络模型,利用自监督深度学习网络模型对三维物体的成像结果进行优化和重建。和监督式学习相比,本发明不仅不需要大量的标注数据,降低了数据要求和人力成本,还无需获取三维图像的真实值,可以从数据本身中学习有用的表征,提高了算法的适应性和泛化性;而且还可以在数据量不足时进行有效学习,具有较好的可扩展性。本发明解决了传统三维成像分辨率不够高,数据处理速度慢,对复杂场景的处理能力弱,成像成本高等问题。

    基于混合深度网络架构的相干快照衍射成像方法、装置、设备及存储介质

    公开(公告)号:CN118570083A

    公开(公告)日:2024-08-30

    申请号:CN202410720125.5

    申请日:2024-06-05

    Applicant: 安徽大学

    Abstract: 本发明涉及涉及基于混合深度网络架构的相干快照衍射成像方法、装置、设备及存储介质。该方法包括:搭建相干快照衍射成像系统,利用相干快照衍射成像系统对相干衍射光场传播过程中的输入3D视频样本进行逐帧频域调制,将调制后的多维信号由时间维度逐帧叠加,得到压缩测量值;构建GAP‑net双相位网络,将压缩测量值作为网络的输入,利用GAP‑net双相位网络重构衍射图,通过衍射图重建频域帧;构建DNN网络模型,将频域帧作为DNN网络模型的输入,利用DNN网络模型获得估计衍射图,利用MSE算法对估计衍射图与实际衍射图进行优化迭代,获得重构的振幅和相位。本发明将快照压缩感知引入相干衍射成像领域,可以实现利用快照压缩感知实现对3D复振幅样本的振幅相位重建。

    基于空分复用的多3D彩色物体快照压缩加密方法及装置

    公开(公告)号:CN116804842A

    公开(公告)日:2023-09-26

    申请号:CN202310602860.1

    申请日:2023-05-23

    Applicant: 安徽大学

    Abstract: 本发明提供了一种基于空分复用的多3D彩色物体快照压缩加密方法及装置。所述方法包括:基于三基色激光源生成物光束和参考光束,并基于所述物光束生成多个复合三色平行光束;将所述多个复合三色平行光束分别照射各3D彩色物体以及与所述各3D彩色物体相连的随机相位掩膜,分别计算各3D彩色物体在所对应的随机相位掩膜平面的光场分布;通过各随机相位掩膜分别对所述光场分布进行加密,并根据加密后的光场分布在探测器平面生成物光场;通过所述物光场与所述参考光束在探测器平面发生干涉,生成多3D彩色物体的加密彩色全息图。以此方式,可以大大降低不同加密物体解码时的相互串扰效应,大大减少物体信息的泄露,大大提高安全性。

    基于分层-反馈机制和TEG引导的可微神经架构搜索方法

    公开(公告)号:CN119150955A

    公开(公告)日:2024-12-17

    申请号:CN202411005044.3

    申请日:2024-07-25

    Applicant: 安徽大学

    Abstract: 本发明涉及神经网络架构搜索技术领域,公开了一种基于分层‑反馈机制和TEG引导的可微神经架构搜索方法,包括:分层搜索阶段,搜索网络深度逐步递增,并结合TEG指标进行架构选择,使用可微分架构搜索方法进行神经架构搜索,搜索步骤中包含多个搜索阶段,每个搜索阶段对应一个搜索网络,且随着搜索阶段的增加,对应的搜索网络的单元的数量随之增加,并逐渐接近评估步骤使用的评估网络中的单元的数量;步骤二,反馈搜索阶段:评估网络由最后一个搜索阶段的搜索网络扩充而来,将搜索网络与评估网络整合,并以循环的方式联合训练最后一个搜索阶段的搜索网络和评估网络。很大程度上提高了搜索效率,同时保持了较高的搜索模型的准确性。

    一种基于非迭代设计的自聚焦无透镜压缩成像方法及装置

    公开(公告)号:CN117692773A

    公开(公告)日:2024-03-12

    申请号:CN202311682126.7

    申请日:2023-12-08

    Applicant: 安徽大学

    Abstract: 本发明涉及一种基于非迭代设计的自聚焦无透镜压缩成像方法及装置。该方法包括:图像压缩采样,获取无透镜成像系统的测量值,对测量值进行下采样操作;建立无透镜压缩成像系统,利用无透镜压缩成像系统获取物体图像的压缩测量值;相位掩膜生成,利用基于OFRAP的近场相位掩膜方法,获取与目标扩散点函数对应的相位掩膜;图像重建与多尺度自聚焦,利用I‑ADMM算法,确定无透镜压缩成像系统的最佳重建距离,选择图像进行重建,得到图像序列;确定图像序列的清晰度和指标权重,利用多尺度搜索方法,逐层定位最佳距离,确定最佳自聚焦距离,实现多尺度自聚焦。本发明能够提高图像质量并在无透镜压缩成像中实现精确的自聚焦功能。

    基于FS-ORAP和相位补偿的非迭代三维全息图生成方法及装置

    公开(公告)号:CN116774556A

    公开(公告)日:2023-09-19

    申请号:CN202310744892.5

    申请日:2023-06-20

    Applicant: 安徽大学

    Abstract: 本发明提供了一种基于FS‑ORAP和相位补偿的非迭代三维全息图生成方法及装置。所述方法包括:对待处理的三维目标沿深度分层,生成多个二维图像;根据所述多个二维图像的振幅与事先生成的满支撑优化随机相位,生成各层纯相位全息图;对所述各层纯相位全息图分别添加补偿相位,并将添加补偿相位后得到的各层全息图的复振幅叠加,生成复合相位全息图;对所述复合相位全息图进行菲涅尔变换重建所述三维目标。以此方式,突破了原始ORAP方法在空间域中目标振幅固定支撑的大小和位置的限制,且无需迭代,极大的加快了三维目标相位全息图的生成。

    非迭代菲涅耳纯相位全息图生成和复用方法、装置及介质

    公开(公告)号:CN116449670A

    公开(公告)日:2023-07-18

    申请号:CN202310450000.0

    申请日:2023-04-23

    Applicant: 安徽大学

    Abstract: 本发明的一种非迭代菲涅耳纯相位全息图生成和复用方法、设备及介质,包括以下步骤,首先,利用迭代菲涅尔方法生成不同平面的FS‑OFRAPs,再结合3D物体分层策略非迭代生成不同层对应的全息图,通过叠加或复用得到最终的相位全息图,最后将复用后的全息图重建得到三维目标物体。本发明可以直接实现用于三维全息显示的纯相位全息图的快速生成。该方法突破了原始OFRAP方法在空间域中目标振幅固定支撑的大小和位置的限制,可以在非迭代方式下实现大尺寸3DCGH的快速生成。数值实验和光学实验验证了本发明3D‑FS‑OFRAP方法的优越性。

Patent Agency Ranking