-
公开(公告)号:CN116205953A
公开(公告)日:2023-06-02
申请号:CN202310389141.6
申请日:2023-04-12
Applicant: 华中科技大学
IPC: G06T7/269 , G06T7/246 , G06N3/0464 , G06N3/0442 , G06N3/0455 , G06N3/08
Abstract: 本发明提出了一种基于分层全相关代价体聚合的光流估计方法,特征编码模块分别提取两帧图像的特征,构建全相关代价体建模两张图像所有像素之间的相似性。分层全相关代价体聚合模块首先将全相关代价体分为更小的块,并在空间上进行重新组合以允许使用2D和3D卷积进行代价聚合;该模块通过分层的方式进行聚合,在块内执行2D卷积进行局部匹配聚合,在块间执行3D卷积进行全局匹配聚合。光流迭代优化模块在每次迭代中基于当前估计光流从全相关代价体中查找匹配信息,与第一帧图像的上下文特征输入到基于卷积GRU的更新模型,得到当前光流的残差,经过多次迭代得到光流估计结果。本发明还提供了相应的基于分层全相关代价体聚合的光流估计装置。
-
公开(公告)号:CN116109680A
公开(公告)日:2023-05-12
申请号:CN202310331854.7
申请日:2023-03-30
Applicant: 华中科技大学
IPC: G06T7/269 , G06T7/246 , G06T7/207 , G06N3/0442 , G06N3/0464
Abstract: 本发明涉及计算机视觉光流估计技术领域,提供了一种高分辨率光流估计方法和装置。其中所述方法包括针对源图像和目标图像,提取得到源图像特征、第一目标图像特征和上下文特征;对所述目标图像的第一目标图像特征,进行池化获得第二和第三目标图像特征;根据三种不同分辨率的目标图像特征,计算得到三种不同分辨率的垂直和水平关注特征;进行多次迭代直至得到最终的光流估计结果;在每一次迭代中,基于上一次的光流估计结果,沿着正交方向索引所述三种不同分辨率的垂直和水平关注特征,将源图像特征与索引结果进行关联得到动态正交代价体积;将动态正交代价体积、上下文特征和上一次的光流估计结果输入至ConvGRU模型,得到本次的光流估计结果。
-
公开(公告)号:CN119206266A
公开(公告)日:2024-12-27
申请号:CN202411129938.3
申请日:2024-08-16
Applicant: 华中科技大学
IPC: G06V10/75 , H04N13/106 , G06V10/80
Abstract: 本发明提供一种面向大视差场景下的高效立体匹配方法与装置,对第一图像和第二图像进行特征提取,分别按照小视差范围、中视差范围和大视差范围将第一图像中的像素和第二图像中的像素进行关系匹配并优化,得到各个视差范围下的匹配关系组,再根据第一图像以及匹配关系组获取选择性权重,根据选择性权重对每种视差范围下的匹配关系组进行筛选,得到每种视差范围下的有效匹配关系作为融合特征;通过融合特征对初始视差图进行多轮迭代优化,获取得到最终视差图;通过对于图像中像素在不同视差范围下的匹配,从而构建多个视差范围下的匹配关系组,同时兼顾了小视差范围、中视差范围和大视差范围的计算预测,实现对于视差图的准确预测。
-
公开(公告)号:CN118075492A
公开(公告)日:2024-05-24
申请号:CN202410240750.X
申请日:2024-03-04
Applicant: 华中科技大学
IPC: H04N19/587 , G06T5/90 , G06T5/50 , G06T5/60 , G06T7/269 , G06T7/33 , G06V10/44 , G06V10/62 , G06V10/80 , G06V10/82 , G06T9/00 , H04N19/42 , H04N19/59 , H04N25/589 , G06N3/0464 , G06N3/0455
Abstract: 本发明涉及一种面向大运动场景下的实时高动态范围视频重建系统和方法。系统主要包括高效光流估计模块、对齐约束模块以及多帧融合模块,其中:所述高效光流估计模块用于从多帧时序图片中计算多帧之间的前向光流和反向光流;所述对齐约束模块用于获取前向光流和反向光流,并根据前向光流和反向光流计算在高动态范围图片上利用光流对齐后的前后帧的光度一致性;所述多帧融合模块用于通过U型卷积神经网络对经过光流对齐后的多帧时序的低动态范围图片进行融合,从而重建出高动态范围的视频。本发明可以实时地从交替曝光的低动态范围视频中重建出准确的、高清的高动态范围视频,由此解决了在大运动情况下难以实时准确重建高动态范围视频的技术问题。
-
公开(公告)号:CN116051739A
公开(公告)日:2023-05-02
申请号:CN202310002146.9
申请日:2023-01-03
Applicant: 华中科技大学
Abstract: 本发明公开了一种基于迭代几何编码体的立体匹配方法:取左右图对,以用于计算参考图与源图之间的视差估计;利用多尺度特征提取网络提取源图和参考图图像特征,同时采用不同的网络提取参考图的多尺度特征作为上下文特征;选择目标尺寸的特征图对分组计算相关性构建相关体,生成几何编码体;从前述几何编码体中回归得到视差估计作为迭代更新的初始值,从初始视差估计开始,将上一级的视差估计结果与上下文特征以及前述联合的几何编码体作为输入,使用三级GRU迭代更新视差,得到更准确的视差预测;对所述预测视差进行空间上采样,利用加权组合输出一个全分辨率视差图。本发明还公开了相应的基于迭代几何编码体的立体匹配系统。
-
-
-
-