-
公开(公告)号:CN119620026A
公开(公告)日:2025-03-14
申请号:CN202411771013.9
申请日:2024-12-04
Applicant: 合肥工业大学
IPC: G01S7/41 , G06F18/2131 , G06F18/2415 , G06F18/25 , G06N3/045 , G06N3/0464 , G06N3/048
Abstract: 本发明公开了一种基于注意力机制的多特征融合海面小目标检测方法,包括:1、对雷达回波数据进行预处理,得到包含丰富特征的联合特征序列;2、构建基于注意力机制的多特征融合网络模型,包括:特征提取模块、注意力机制模块、特征聚合模块、目标检测模块,并对联合特征序列进行处理,得到二元概率矩阵序列;3、利用焦点损失函数计算损失,对网络模型进行训练,得到最优目标检测模型。本发明通过多尺度特征提取、注意力机制和特征融合,有效提高了雷达弱小目标的检测精度,适用于复杂背景和低信噪比环境中的目标检测需求。
-
公开(公告)号:CN117291850A
公开(公告)日:2023-12-26
申请号:CN202310982062.6
申请日:2023-08-07
Applicant: 合肥工业大学
IPC: G06T5/50 , G06T5/00 , G06T5/20 , G06N3/0455 , G06N3/0464 , G06N3/048 , G06N3/084
Abstract: 本发明公开了一种基于可学习低秩表示的红外偏振图像融合增强方法,其步骤包括:1、采集不同方向的红外偏振图像,计算Stokes矢量;2、构建基于可学习低秩表示的红外偏振图像融合网络;3、对融合后的红外偏振图像进行编解码重构,并获取引导滤波后的偏振图像;4、建立输入的红外偏振图像与融合图像之间的损失函数;5、用红外偏振图像对该网络进行训练,并用训练后的模型对待处理的红外偏振图像进行融合增强。本发明通过构建端到端的深度学习网络来实现红外偏振图像的低秩特征表示,能有效提取偏振图像中的显著性目标信息,并降低网络模型参数,同时,设计了基于偏振特征重构的融合损失函数,可以抑制红外偏振图像背景噪声干扰。
-
公开(公告)号:CN114862844B
公开(公告)日:2023-08-08
申请号:CN202210661383.1
申请日:2022-06-13
Applicant: 合肥工业大学
IPC: G06T7/00 , G06T7/70 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/0455 , G06N3/08
Abstract: 本发明公开了一种基于特征融合的红外小目标检测方法,其步骤包括:1、对红外图像进行预处理,避免在训练过程中过拟合;2、构建Transformer架构的神经网络分支提取图像特征;3、构建CNN架构的神经网络分支提取图像特征;4、构建特征融合模块将两个分支的特征进行融合;5、结合两种损失函数来优化模型。本发明利用Transformer分支、CNN分支和一个特征融合模块,可以学习与背景相对应的像素之间的长期依赖关系,融合局部细节特征和全局语义特征,从而实现更精确的目标检测,提升了网络的性能。
-
公开(公告)号:CN116433532A
公开(公告)日:2023-07-14
申请号:CN202310503630.X
申请日:2023-05-06
Applicant: 合肥工业大学
IPC: G06T5/00 , G06V10/80 , G06V10/74 , G06V10/82 , G06V10/40 , G06N3/0455 , G06N3/084 , G06N3/0464 , G06N3/048
Abstract: 本发明公开了一种基于注意力引导滤波的红外偏振图像融合去噪方法,其步骤包括:1、改进红外偏振图像的输入方式,获取扩展后的偏振度与偏振距离图像;2、构建基于注意力引导滤波的红外偏振融合去噪网络;3、建立输入的红外偏振图像与融合图像之间的损失函数;4、用红外偏振图像对该网络进行训练,并用训练后的模型对待处理的红外偏振图像进行融合去噪。本发明改进了红外偏振图像的输入方式,有效融合了偏振图像中的显著性信息,抑制背景噪声,同时构建了基于注意力引导滤波的融合网络,从而能保留红外偏振目标的边缘轮廓特征,并能进一步降低背景噪声干扰。
-
公开(公告)号:CN117576725A
公开(公告)日:2024-02-20
申请号:CN202311527859.3
申请日:2023-11-16
Applicant: 合肥工业大学
IPC: G06V40/10 , G06V10/42 , G06V10/44 , G06V10/74 , G06V10/80 , G06V10/82 , G06N3/045 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于注意力特征融合的RGB‑D跨模态行人再识别系统和方法,其中行人再识别系统包括局部特征提取分支、全局特征提取分支、注意力特征融合模块和识别模块;局部特征提取分支对深度图和RGB图进行特征提取,得到局部特征FB;全局特征提取分支对深度图和RGB图进行全局特征提取,并增强显著性拼接为全局特征FR;注意力特征融合模块对局部特征FB和全局特征FR进行特征融合,得到融合特征FC;识别模块计算输入的待识别深度图像和RGB图像的相似度,根据相似度得到识别结果。该系统通过迭代多尺度通道注意力机制来整合语义和尺度不一致的特征,提高模型对行人身体结构的感知能力,进而提升模型对跨模态行人再识别的准确性。
-
-
公开(公告)号:CN116433532B
公开(公告)日:2023-09-26
申请号:CN202310503630.X
申请日:2023-05-06
Applicant: 合肥工业大学
IPC: G06T5/00 , G06V10/80 , G06V10/74 , G06V10/82 , G06V10/40 , G06N3/0455 , G06N3/084 , G06N3/0464 , G06N3/048
Abstract: 本发明公开了一种基于注意力引导滤波的红外偏振图像融合去噪方法,其步骤包括:1、改进红外偏振图像的输入方式,获取扩展后的偏振度与偏振距离图像;2、构建基于注意力引导滤波的红外偏振融合去噪网络;3、建立输入的红外偏振图像与融合图像之间的损失函数;4、用红外偏振图像对该网络进行训练,并用训练后的模型对待处理的红外偏振图像进行融合去噪。本发明改进了红外偏振图像的输入方式,有效融合了偏振图像中的显著性信息,抑制背景噪声,同时构建了基于注意力引导滤波的融合网络,从而能保留红外偏振目标的边缘轮廓特征,并能进一步降低背景噪声干扰。
-
公开(公告)号:CN116402858A
公开(公告)日:2023-07-07
申请号:CN202310406030.1
申请日:2023-04-11
Applicant: 合肥工业大学
Abstract: 本发明公开了一种基于transformer的时空信息融合的红外目标跟踪方法,包括:第一步,对红外图像进行预处理;第二步,构建红外目标跟踪网络,包括:红外图像特征提取子网络、红外图像特征融合子网络、角点预测头子网络、显著点聚焦子网络、IOU‑Aware目标状态评估头子网络;第三步,构建红外目标跟踪网络的损失函数;第四步,采用两阶段训练法优化红外目标跟踪网络。本发明通过设计多个组件来实现红外目标跟踪过程中时空信息的融合,旨在提高不同跟踪场景下红外目标跟踪方法的准确性和鲁棒性。
-
公开(公告)号:CN119540519A
公开(公告)日:2025-02-28
申请号:CN202411188453.1
申请日:2024-08-28
Applicant: 合肥工业大学
IPC: G06V10/25 , G06V10/40 , G06N3/0464 , G06V10/82 , G06N3/045 , G06N3/08 , G06N3/084 , G06N3/048 , G06V10/20
Abstract: 本发明公开了一种基于多帧交互感知的红外弱小目标检测方法,包括:1、对红外序列图像进行预处理,避免在训练过程中过拟合;2、构建一个针对连续多帧图像的时序特征提取模块;3、构建一个U型结构的特征交互感知模块;4、建立当前帧的红外图像经过预测模块后的结果与真实二值图像之间的损失函数;5、用红外图像对该网络进行训练,并用训练后的模型对红外弱小目标进行检测。本发明利用多帧图像获取目标的时空信息,并实现跨层级信息融合,从而能提高红外弱小目标检测的准确性,并特别增强对快速移动小目标的捕捉能力。
-
公开(公告)号:CN117372494B
公开(公告)日:2024-09-03
申请号:CN202310982023.6
申请日:2023-08-07
Applicant: 合肥工业大学
Abstract: 本发明公开了一种基于单双目视觉协同的电网作业人员视差估计及定位方法,包括:1、利用双目相机采集左、右视角下的作业人员图像,并对双目相机进行标定;2、构建自监督单目视差估计模型,设计双目视差一致性损失函数,训练单目视差估计网络,估计单目视差图;3、利用单目视差图对双目视差图进行滤波优化操作;4、对作业人员双目视差图进行检测定位,提取有效的视差像素值,计算作业人员的距离坐标。本发明基于双目视差的一致性,设计了自监督单目视差估计网络,并通过单目视差图来提升双目视差估计性能,从而能降低电网作业人员的背景视差干扰,并能提高作业人员的目标定位精度。
-
-
-
-
-
-
-
-
-