-
公开(公告)号:CN118094333A
公开(公告)日:2024-05-28
申请号:CN202410265092.X
申请日:2024-03-08
Applicant: 南通大学
IPC: G06F18/241 , G06F18/10 , G06F18/213 , G06F18/25 , G06N3/045 , G06N3/0464 , G06N3/084 , G06N3/0985 , G01S7/41 , G06F123/02
Abstract: 本发明公开了基于金字塔多尺度通道注意力机制的人类行为分类方法,该方法使用毫米波雷达进行雷达数据的采集,并使用动态谱融合网络将雷达数据处理为时间‑速度微多普勒图像;搭建基于卷积神经网络的多尺度通道注意力机制和特征金字塔深度学习神经网络,该网络多尺度特征提取组件、特征金字塔拼接组件、全连接分类组件组成,使用时间‑速度微多普勒图像对网络模型进行训练评估;最终得到的网络模型能够准确分类现实中的人类活动,从而提高人类行为分类的准确性和时空特征的动态捕获能力。
-
公开(公告)号:CN117045235A
公开(公告)日:2023-11-14
申请号:CN202310998007.6
申请日:2023-08-09
Applicant: 南通大学
IPC: A61B5/11 , G01S13/86 , G01C22/00 , G06N3/0464 , G06F18/25 , G06F17/16 , G06V40/20 , G06V10/82 , G06V10/80
Abstract: 本发明涉及一种同时测量手机惯导和毫米波雷达的行人步态数据,并通过数据融合和强化学习对步态进行识别和分类的系统及方法。通过结合手机内置的惯性传感器和毫米波雷达技术,实时获取行人的步态信息,经过数据融合和强化学习算法的处理,提高步态识别的准确率和鲁棒性。本发明提供了一种可靠、高精度的行人步态识别方案,适用于安全监控、人机交互等领域。
-
公开(公告)号:CN117892177A
公开(公告)日:2024-04-16
申请号:CN202410079128.5
申请日:2024-01-19
Applicant: 南通大学
IPC: G06F18/24 , G06N3/045 , G06N3/0464 , G06N3/096 , G06N3/084 , G06F18/213 , G06F18/25 , G06F18/10
Abstract: 本专利涉及一种结合迁移学习与特征金字塔的行人步态识别与分类方法,该方法使用手机惯性导航传感器以及毫米波雷达进行惯性导航数据以及雷达数据的采集。通过搭建卷积神经网络和特征金字塔网络的深度学习神经网络,使用处理后的惯性导航数据以及雷达数据对神经网络进行迁移学习。在网络训练和迁移过程中优化步态数据的识别和分类性能。本发明能够实现在多传感器数据上进行行人步态的准确预测。
-
公开(公告)号:CN116559864A
公开(公告)日:2023-08-08
申请号:CN202310532811.5
申请日:2023-05-12
Applicant: 南通大学
IPC: G01S13/88 , G01S13/931 , G01S13/42
Abstract: 本发明公开了一种非机动车道目标识别方法及系统,包括如下步骤:用毫米波雷达采集非机动车道目标互相垂直的两个方向的径向速度;构建目标的微多普勒图像;对微多普勒图像进行抑制固定杂波,对消静止目标和低速目标等处理,提取运动目标信号;根据运动目标信号及其运动姿态分类标签构建数据集,训练卷积神经网络;将新采集的目标的径向速度输入训练好的卷积神经网络中,输出对应的运动姿态。本发明解决了当前数据特征的提取高度依赖于人类经验和领域知识;浅层人工特征训练的模型应用于新数据集时,其性能总是不如原始数据集;单雷达识别范围较窄导致准确率不高;传统的机器学习方法无法在大规模动态数据情况下训练出一个鲁棒的模型等一系列问题。
-
公开(公告)号:CN118168544A
公开(公告)日:2024-06-11
申请号:CN202410327173.8
申请日:2024-03-21
Applicant: 南通大学
Abstract: 本发明公开了一种基于改进Swim Transformer的雷达和惯导融合位姿分析方法。利用改进的模型从雷达和IMU数据中提取特征,并对提取到的特征进行融合,然后利用融合后的特征,采用姿态估计算法对目标的位姿进行估计,最后通过调整模型的超参数,以提高模型的性能和收敛速度。本发明可以有效处理多模态传感器数据,并在时间序列中捕捉长期依赖关系,通过融合雷达和惯性导航数据,并利用改进的模型进行处理,可以充分利用两种传感器的优势,提高位姿分析的准确性。雷达系统具有较长的探测距离和强大的抗干扰能力,而惯性导航系统具有高精度和实时性,融合两者数据可以弥补彼此的不足,得到更可靠和准确的位姿估计结果。
-
-
-
-