-
公开(公告)号:CN118230034A
公开(公告)日:2024-06-21
申请号:CN202410275103.2
申请日:2024-03-12
Applicant: 东北大学
IPC: G06V10/764 , G06V20/13 , G06V20/17 , G06V10/42 , G06V10/44 , G06N3/0464 , G06N3/045 , G06N3/08 , G06V10/776 , G06N3/098
Abstract: 本发明属于计算机视觉技术领域,公开了一种基于信息融合联合表示学习的跨视角地理定位方法。首先,通过全局信息模块和局部信息模块获取图像中的特征信息从而帮助网络更好的学习图像中的信息。此外,还引入一个全局局部混合模块来让局部信息辅助全局特征从而更好的学习到图像中的潜在信息。其次,我们在每一个模块部分引入全局接受层,增加各个模块对图像中的上下文信息的提取提升模型性能。最后,在University‑1652数据集上进行测试,测试结果证明了本发明所提出的网络框架性能优于目前最先进的算法,验证了算法的有效性。
-
公开(公告)号:CN119723020A
公开(公告)日:2025-03-28
申请号:CN202411773967.3
申请日:2024-12-05
Applicant: 东北大学
IPC: G06V10/24 , G06V10/774 , G06V10/25 , G06V10/75 , G06V10/764
Abstract: 本发明属于计算机视觉技术领域,尤其涉及一种基于特征中心区域扩散和边缘辐射的跨视角地理定位方法。提出基于关键特征中心区域扩散模块来进一步关注图像中的关键区域从而提高所提取特征的鉴别性。在此基础上,为了防止在寻找关键区域使会忽略周围的一些有效信息,设计了边缘辐射机制来进一步挖掘图像中的有效信息。此外,本发明还引入了基于对称的三重INFONCE损失函数来辅助模型获取鲁棒的全局特征和局部特征。最后,在两个跨视图地理定位数据集上分别进行了测试,即University‑1652和SUES‑200。实验结果证明了所提出的网络模型优于目前最先进的算法证明了方法的有效性。
-
公开(公告)号:CN118470344A
公开(公告)日:2024-08-09
申请号:CN202410513127.7
申请日:2024-04-26
Applicant: 东北大学
IPC: G06V10/42 , G06V10/50 , G06V10/771 , G06V10/776 , G06V10/25 , G06V20/13 , G06V20/17 , G06T7/70 , G06V10/82 , G06N3/045 , G06N3/09 , G06N3/082
Abstract: 本发明属于计算机视觉技术领域,公开了一种基于多级反馈联合表示学习的跨视角地理定位方法。建立跨视角地理定位网络,其为双分支架构,两个分支的基本架构相似并且swin‑b网络权重共享;每个分支由三个前向阶段构成,分别为特征提取、特征聚合和特征分类;在特征提取和特征聚合阶段,通过swin‑b网络、多级反馈网络和自适应区域消除策略实现;无人机视图图像和卫星视图图像分别输入至跨视角地理定位网络的各分支中,特征提取和特征聚合后,经分类器进行特征分类。在University‑1652数据集上进行测试,从实验结果可以证明发明所提出的网络模型性能优于目前最先进的算法,验证了算法的有效性。
-
-