-
公开(公告)号:CN118490233B
公开(公告)日:2024-12-03
申请号:CN202410961563.0
申请日:2024-07-18
Applicant: 南昌航空大学
IPC: A61B5/16 , A61B5/374 , A61B5/00 , A61B3/113 , G06F18/2431 , G06N20/20 , G06N5/01 , G06F18/2411 , G06F18/243 , G06F18/25 , G06F18/27
Abstract: 本发明公开一种基于脑电信号和眼动信号的动态情绪识别方法及系统,涉及脑电和眼动信号处理领域,方法包括:获取目标受试者的脑电信号数据及眼动信号数据;眼动信号数据包括瞳孔直径和注视时长;采用时频特征提取技术对预处理后的脑电信号数据以及眼动信号数据,提取脑电特征和眼动特征,并根据脑电特征及眼动特征,采用回归模型确定目标受试者的动态情绪类别;动态情绪类别包括平静开心、开心平静、悲伤平静、平静悲伤、紧张平静及平静紧张;回归模型为预先采用训练样本集进行训练得到的,训练样本集中的每个训练样本均包括脑电样本信号、眼动样本信号及对应的动态情绪标签。本发明提高了动态情绪识别的精度及实时性。
-
公开(公告)号:CN118570600A
公开(公告)日:2024-08-30
申请号:CN202411039594.7
申请日:2024-07-31
Applicant: 南昌航空大学
IPC: G06V10/80 , G06V10/143 , G06V10/44 , G06V10/52 , G06V10/82 , G06N3/0455 , G06N3/0475 , G06N3/094
Abstract: 本发明属于红外与可见光图像融合技术领域,公开了一种分治损失约束下的无监督红外与可见光图像融合方法,包括以下步骤:输入一组红外图像I和可见光图像V,并采用基于密集连接的编码网络分别提取各自的特征;在通道维度中,将所提取的特征图进行拼接操作,并送入解码网络进行特征重建,以获得融合图像F;根据得到的融合图像F,计算融合图像F与源图像I和V的分治损失;优化鉴别器网络;重复上述步骤,共迭代n次,迭代完成后直接利用融合网络获取融合图像。本发明采用上述一种分治损失约束下的无监督红外与可见光图像融合方法,通过对融合网络进行不同层次的约束和多种损失的协同,提高融合图像的主观视觉效果和在下游高级视觉任务中的表现。
-
公开(公告)号:CN117392545B
公开(公告)日:2024-02-09
申请号:CN202311397629.X
申请日:2023-10-26
Applicant: 南昌航空大学
IPC: G06V20/10 , G06V10/774 , G06V10/82 , G06V10/30 , G06V10/10 , G06V10/52 , G06N3/0464 , G06N3/084
Abstract: 本发明公开了一种基于深度学习的SAR图像目标检测方法,属于SAR图像目标检测技术领域,包括:获取SAR图像数据,构建训练样本集;通过马赛克数据增强方式对训练样本集中每幅SAR图像进行数据增强,得到扩充后的样本集;构建规范残差去噪网络;通过扩充后的训练样本集构建训练好的规范残差去噪网络模型;用训练好的规范残差去噪网络模型对SAR图像进行目标检测,得到测试数据目标检测结果。本发明采用上述的一种基于深度学习的SAR图像目标检测方法,实现了在规范残差去噪网络内部的自动软阈值化,以自适应地在特征学习的过程中消除冗余信息,提高了深度学习方法在含噪声数据或复杂数据上的特征学习效果,解决了现有SAR目标检测技
-
公开(公告)号:CN117058474B
公开(公告)日:2024-01-12
申请号:CN202311316173.X
申请日:2023-10-12
Applicant: 南昌航空大学
IPC: G06V10/77 , G06V10/80 , G06V10/774 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种基于多传感器融合的深度估计方法及系统,涉及多传感器融合深度估计技术领域,该方法包括:构建多传感器融合深度估计模型;构建相机姿态估计模型;构建训练数据集;所述训练数据集包括多帧参考图像、与多帧所述参考图像对应的激光雷达点云、惯性测量单元陀螺仪测量结果、惯性测量单元加速度计测量结果和相机内参矩阵;通过所述训练数据集对所述多传感器融合深度估计模型和所述相机姿态估计模型进行训练;通过训练好的多传感器融合深度估计模型进行深度估计。本发明采用多传感器融合深度估计模型和姿态估计模型,优化模型训练策略,在保持深度估计精度的同时,可在任一传感器故障后继续进行单目深度估计。
-
公开(公告)号:CN116740477B
公开(公告)日:2023-11-07
申请号:CN202311029115.9
申请日:2023-08-16
Applicant: 南昌航空大学
Abstract: 本发明公开了一种基于稀疏光流的动态像素点分布识别方法、系统及设备,涉及计算机视觉领域,方法包括获取搭载在机器人上的相机所采集的当前帧图像,并对当前帧图像进行特征提取,得到当前帧图像的目标特征点以及目标特征点对应的描述子;采用稀疏光流算法计算目标特征点的运动信息,并根据目标特征点的运动信息和描述子确定跟踪成功的特征点;根据跟踪成功的特征点和动态分布度识别器,确定动态类的特征点和静态类的特征点;根据区域生长算法和动态类的特征点,对当前帧图像中的动态区域进行剔除,得到当前帧图像对应的静态图像。本发明以解决现有动态环境下视觉SLAM技术无法实时运行且使用场景受限的问题。
-
公开(公告)号:CN116403270B
公开(公告)日:2023-09-05
申请号:CN202310664334.8
申请日:2023-06-07
Applicant: 南昌航空大学
IPC: G06V40/16 , G06V10/764 , G06V10/80 , G06N3/126
Abstract: 本发明公开一种基于多特征融合的人脸表情识别方法及系统,属于图像数据处理技术领域。本发明通过设置LBP算子、LPQ算子、HOG算子、GLCM算子和Gabor算子对人脸图像进行特征提取,并采用基于遗传编程算法训练得到的特征融合模型进行融合,采用基于遗传编程算法训练得到的多核分类器进行分类,提高了人脸表情识别的准确率。
-
公开(公告)号:CN110161486B
公开(公告)日:2023-09-01
申请号:CN201910592159.X
申请日:2019-07-03
Applicant: 南昌航空大学
IPC: G01S7/497
Abstract: 本发明公开了一种测试激光雷达镜头性能的装置,涉及激光镜头性能测试技术领域,包括底座和光斑分析仪,所述底座的上表面左后侧设置有光斑分析仪调整架,且底座的上表面右侧设置有光源调整架,所述底座的上表面左前侧设置有激光雷达防护罩。本发明中,该装置结构简单,通过激光器、激光扩束器、被测激光雷达镜头、和反射镜之间的配合,使光路折转进入光斑分析仪内,从而评价被测镜头的性能,通过光斑分析仪调整架调节光斑分析仪的位置,使形成的光斑尺寸最小,且通过旋转光源调整架使激光扩束器和激光器出射的激光光束沿着不同视场进入被测镜头,从而测得不同视场的激光光斑尺寸,增加了该装置测量的准确性。
-
公开(公告)号:CN116342675B
公开(公告)日:2023-08-11
申请号:CN202310609609.8
申请日:2023-05-29
Applicant: 南昌航空大学
IPC: G06T7/50 , G06T5/50 , G06N3/0464 , G06N3/0455 , G06N3/048 , G06N3/084
Abstract: 本发明公开一种实时单目深度估计方法、系统、电子设备及存储介质,涉及单目图像深度估计领域,方法包括获取参考图像;利用深度估计模型的轻量化金字塔图像编码器对所述参考图像进行特征提取,得到多个不同分辨率的图像特征图;利用深度估计模型的多尺度特征快速融合模块对所述图像特征图进行特征融合,得到融合特征图;利用深度估计模型的深度解码器对所述融合特征图进行深度估计,得到深度估计结果。本发明能在保持深度估计的同时优化计算速度和降低功耗。
-
公开(公告)号:CN112966678B
公开(公告)日:2023-01-24
申请号:CN202110262754.4
申请日:2021-03-11
Applicant: 南昌航空大学
IPC: G06V10/22 , G06V10/26 , G06V10/28 , G06V10/774 , G06V30/10 , G06V30/14 , G06V30/162 , G06V30/19
Abstract: 本发明公开了一种文本检测方法及系统。该文本检测方法包括包括:训练阶段和检测阶段;训练阶段的步骤包括:获取待训练图像;对待训练图像进行垂直投影处理并利用垂直投影中的空白间隙完成文字的分割,得到待训练标签数据;将待训练标签数据输入文本检测模型中进行训练,得到经训练文本检测模型;检测阶段的步骤包括:获取待测文本图像;将待测文本图像输入经训练文本检测模型中生成包含检测结果的文本检测框。本发明的文本检测方法及系统能包含完整的文本信息,克服对长文本检测效果不佳的缺陷,同时能够有效去除非文本信息。
-
公开(公告)号:CN114972696A
公开(公告)日:2022-08-30
申请号:CN202210558678.6
申请日:2022-05-20
Applicant: 南昌航空大学 , 杭州瑞杰珑科技有限公司
Abstract: 本发明提供一种电子助视器仿真系统,属于三维仿真技术领域,包括:三维场景搭建模块,用于搭建三维场景,并建立人物模型;三维场景漫游模块,用于以第一人称视角在三维场景内漫游;人机交互模块,用于接收体验者输入的指令,并产生对应的控制信号;视野缩放模块,用于根据视野缩放控制信号对画面进行缩放;边缘强化模块,用于根据边缘强化控制信号对画面进行边缘强化;高对比度模块,用于根据对比度控制信号提升画面的对比度;速度场检测模块,用于实时检测人物模型与第一人称视角之间的夹角及距离并产生警示信息。通过在虚拟三维场景内模拟电子助视器的功能,使体验者以低时间成本、低经济成本的方式了解电子助视器的功能,提高了便利性。
-
-
-
-
-
-
-
-
-