-
公开(公告)号:CN115631223A
公开(公告)日:2023-01-20
申请号:CN202211183328.2
申请日:2022-09-27
Applicant: 厦门大学
IPC: G06T7/593 , G06T15/08 , G06T17/00 , G06V10/82 , G06V10/80 , G06N3/0455 , G06N3/0464 , G06N3/048 , G06N3/084
Abstract: 本发明涉及一种基于自适应学习和聚合的多视图立体重建方法,它包括以下步骤:S1.特征提取,从输入图像中提取图像特征,将众多信息中不重要的信息剔除;S2.匹配代价构建,在每个采样深度假设下,计算参考摄像机中的每个像素与其相邻摄像机对应匹配像素之间的匹配成本;S3.匹配代价正则化,对匹配代价中的代价体进行去噪处理;S4.深度图估计,将匹配代价正则化后的结果利用函数回归加权得到初始深度图;S5.深度图优化,将初始深度图的边缘部分减轻过平滑的影响。本发明的目的在于提供一种基于自适应学习和聚合的多视图立体重建方法,相比MVSNet有着更高的重建精度和完整度,并且极大降低时间消耗和显卡内存消耗。
-
公开(公告)号:CN114067100A
公开(公告)日:2022-02-18
申请号:CN202111272552.4
申请日:2021-10-29
Applicant: 厦门大学
Abstract: 本发明涉及图像识别技术领域,且公开了一种在困难条件下检测子和描述符同时生成的特征点匹配方法,在我们提出的方法中,其中单一卷积神经网络发挥双重作用:它同时是密集的特征描述符和特征检测器,即采用单一神经网络,同时获取检测子和描述子。在局部重建任务中的亚琛昼夜数据集上,本方法比所有特征点匹配方法表现更好。结果明显验证了我们的描述符和检测子同时生成的方法的优越性,因为它在这种极富挑战性的情况下显著胜过先检测后描述的方法。我们提出了一种新的方法——检测子和描述符同时生成来提取局部特征进行特征点匹配。已经证明,我们的方法在极具挑战性的条件下的优越性。
-