-
公开(公告)号:CN119910662A
公开(公告)日:2025-05-02
申请号:CN202510397569.4
申请日:2025-04-01
Applicant: 湖南大学
IPC: B25J9/16 , B25J11/00 , G06V20/56 , G06N3/082 , G06N3/084 , G06N3/096 , G06V10/26 , G06V10/40 , G06V10/774 , G06V10/82
Abstract: 本发明公开了一种电力巡检机器人检测及部署方法、系统和计算机设备,获取待检测道路场景的高低线束三维点云数据,分别输入到教师模型和学生模型中,提取得到BEV特征,利用焦点模块对师生模型的三维特征进行蒸馏处理,创建前景和背景掩码,并计算前景特征的损失;引入焦点关系蒸馏模块,提取前景位置九个角点的特征并进行高斯相似度的计算,提升模型在不同类别前景特征学习中的均衡性;应用全局蒸馏模块,提升整体性能,模型训练完成后进行模型剪枝,优化模型性能;将剪枝优化后的模型转换为ONNX格式,并在TensorRT上进行部署和加速,进一步提升推理效率。有效解决了低线束雷达检测精度低和模型实际部署困难的问题。
-
公开(公告)号:CN119910661A
公开(公告)日:2025-05-02
申请号:CN202510388636.6
申请日:2025-03-31
Applicant: 湖南大学
IPC: B25J9/16 , G06V20/56 , G06V10/10 , G06V10/40 , G06V10/774 , G06V10/778
Abstract: 本发明公开了一种作业机器人多视图立体目标检测方法、系统及计算机设备,通过安装图像传感器,从不同角度同时采集多视角图像,实现了多角度信息的融合,这种多视角图像融合技术能够有效弥补单一视角下因遮挡或物体形态复杂导致的识别盲区,从而提高了目标检测的准确性;空间特征提取模块能够自适应地处理目标物体在尺寸和形态上的差异,对大尺寸和小尺寸目标物体的检测具有较高的鲁棒性,避免了其他方法中对不同目标尺寸的敏感性不足问题;通过局域网将采集的图像实时传输至远程服务器进行计算处理,避免了本地计算资源受限的瓶颈,并利用强大的远程计算能力提升了模型推理和目标检测的效率。
-
公开(公告)号:CN119291714A
公开(公告)日:2025-01-10
申请号:CN202411803687.2
申请日:2024-12-10
Applicant: 湖南大学
IPC: G01S17/89 , G06V10/25 , G06N3/084 , G06V10/74 , G06V10/764 , G06V10/766 , G06V10/774 , G06V10/82 , G06V20/64
Abstract: 本发明公开了一种大型装配场景的多传感器在线三维检测方法及装置,通过多个非重复式扫描激光雷达与嵌入式平台相连接,从不同的角度进行扫描,并对不同角度的点云数据进行预处理以实现多传感器非重复式扫描点云数据的坐标系统一与拼接融合,采集整个大型装配场景的点云数据并制作数据集。构建大型装配场景检测模型用于处理大型装配场景下的目标检测任务,通过训练、测试以及离线可视化验证,获得训练好的最佳模型。基于训练好的模型对实时的大型装配场景点云数据进行快速推理,实现大型装配场景中移动机器人等的高精度实时化的在线检测。解放了人力资源,提升了装配效率。
-
公开(公告)号:CN115908345A
公开(公告)日:2023-04-04
申请号:CN202211523198.2
申请日:2022-11-30
Applicant: 湖南大学
IPC: G06T7/00 , G06V10/44 , G06V10/774 , G06V10/80 , G06V10/82 , G06N3/08 , G06N3/0464
Abstract: 本发明涉及图像识别技术领域,具体为一种基于动态细粒度神经网络的销钉缺陷检测方法,包含:S1、构建销钉图像数据集;S2、对销钉图像数据集中的销钉图像进行标注,并对标注后的销钉图像进行数据增强,得到数据增强后的销钉图像数据集;将增强后的销钉图像数据集划分为训练集和验证集;S3、构建改进的模型;S4、利用训练集训练改进的模型;S5、将验证集输入到训练后的模型中,得到销钉缺陷识别结果。本发明采用了动态细粒度特征融合空间结构,该结构为每个待检测的目标动态地选择不同尺度的特征金字塔的像素级组合,加强特征金字塔的多尺度表示能力,从而获得更加精细的特征表示,提高了销钉缺陷检测的精度。
-
公开(公告)号:CN119919594A
公开(公告)日:2025-05-02
申请号:CN202510398646.8
申请日:2025-04-01
Applicant: 湖南大学
Abstract: 本发明公开了一种大范围制造场景立体重建方法及系统,首先搭建场景重建模型并训练,获取大范围制造场景下的待处理图像对并输入训练后的场景重建模型,场景重建模型的一元特征提取与增强模块接收输入图像对并进行特征提取与增强处理,将增强后的一元特征输入成本体积构建模块处理,输出联合体积,3D聚合模块接收联合体积并逐层优化,输出优化后的成本体积,视差预测模块获取优化后的成本体积并处理,输出待处理图像对对应的预测视差图,将预测视差图转化为真实世界下的三维空间数据,由此完成制造场景立体重建。该方法及系统不仅适用于具有复杂结构的大规模制造场景,还能够以高精度还原场景的空间细节。
-
公开(公告)号:CN118154607B
公开(公告)日:2024-08-09
申请号:CN202410579980.9
申请日:2024-05-11
Applicant: 湖南大学
IPC: G06T7/00 , G06N3/0464 , G06N3/084
Abstract: 本发明公开了一种基于混合多尺度知识蒸馏的轻量化缺陷检测方法,构建数据集;构建教师网络模型和轻量化学生网络模型;使用数据集对教师网络模型进行训练,并将训练好的教师网络模型权重文件保存;载入保存的教师网络模型权重文件到教师网络模型,将数据集中的缺陷图像输入至教师网络模型和学生网络模型中分别得到第一多尺度特征和第二多尺度特征,再分别输入至级联式知识混合模块得到最终的深度融合的第一多尺度特征和第二多尺度特征,进而计算混合多尺度知识损失,结合学生网络模型的预测损失利用反向传播算法来网络参数进行更新,得到训练好的轻量化学生网络模型完成智能制造产品的缺陷检测。提升对不同尺度缺陷的认知能力和识别性能。
-
公开(公告)号:CN119169606B
公开(公告)日:2025-04-25
申请号:CN202411241486.8
申请日:2024-09-05
Applicant: 湖南大学
IPC: G06V20/64 , G06V10/80 , G06V10/25 , G06V10/44 , G06N3/0464 , G06N3/0495 , G06N3/08
Abstract: 本发明属于大范围制造场景机器人协同三维感知领域,具体涉及一种基于视觉状态空间模型的多机器人协同三维目标检测方法,包括:搭建多机器人激光雷达三维感知平台,采集飞机制造与装配大范围场景中的三维点云数据;对所采集的三维点云数据进行数据标注,制作三维点云检测数据集,并将三维点云检测数据集进行划分;构建基于视觉状态空间模型的点云三维目标检测模型;将训练集代入到点云三维目标检测模型中进行迭代训练,并采用验证集进行模型验证,得到最优点云三维目标检测模型;将测试集代入到最优点云三维目标检测模型中进行预测,得到三维点云检测结果,实现多机器人在大范围场景中的协同三维目标检测。
-
公开(公告)号:CN118154607A
公开(公告)日:2024-06-07
申请号:CN202410579980.9
申请日:2024-05-11
Applicant: 湖南大学
IPC: G06T7/00 , G06N3/0464 , G06N3/084
Abstract: 本发明公开了一种基于混合多尺度知识蒸馏的轻量化缺陷检测方法,构建数据集;构建教师网络模型和轻量化学生网络模型;使用数据集对教师网络模型进行训练,并将训练好的教师网络模型权重文件保存;载入保存的教师网络模型权重文件到教师网络模型,将数据集中的缺陷图像输入至教师网络模型和学生网络模型中分别得到第一多尺度特征和第二多尺度特征,再分别输入至级联式知识混合模块得到最终的深度融合的第一多尺度特征和第二多尺度特征,进而计算混合多尺度知识损失,结合学生网络模型的预测损失利用反向传播算法来网络参数进行更新,得到训练好的轻量化学生网络模型完成智能制造产品的缺陷检测。提升对不同尺度缺陷的认知能力和识别性能。
-
公开(公告)号:CN119850623A
公开(公告)日:2025-04-18
申请号:CN202510330876.0
申请日:2025-03-20
Applicant: 湖南大学
Abstract: 本申请涉及航空检测技术领域,公开一种飞机壁板缺陷检测方法、模型训练方法及相关设备。该训练方法包括:获取拍摄飞机壁板得到的样本图像;将样本图像输入预训练的教师模型和待训练的学生模型,得到第一特征图集、第二特征图集和目标预测结果;依据第一特征图集和第二特征图集两者的特征图的局部偏差和全局偏差,得到知识蒸馏损失信息;依据第一特征图集和第二特征图集两者的特征图,得到对抗损失信息;依据目标预测结果,得到预测损失信息;依据知识蒸馏损失信息、对抗损失信息和预测损失信息,调整学生模型的网络参数。本申请实施例可以在有限的硬件条件下提升飞机壁板缺陷检测的精度。
-
公开(公告)号:CN119291714B
公开(公告)日:2025-03-21
申请号:CN202411803687.2
申请日:2024-12-10
Applicant: 湖南大学
IPC: G01S17/89 , G06V10/25 , G06N3/084 , G06V10/74 , G06V10/764 , G06V10/766 , G06V10/774 , G06V10/82 , G06V20/64
Abstract: 本发明公开了一种大型装配场景的多传感器在线三维检测方法及装置,通过多个非重复式扫描激光雷达与嵌入式平台相连接,从不同的角度进行扫描,并对不同角度的点云数据进行预处理以实现多传感器非重复式扫描点云数据的坐标系统一与拼接融合,采集整个大型装配场景的点云数据并制作数据集。构建大型装配场景检测模型用于处理大型装配场景下的目标检测任务,通过训练、测试以及离线可视化验证,获得训练好的最佳模型。基于训练好的模型对实时的大型装配场景点云数据进行快速推理,实现大型装配场景中移动机器人等的高精度实时化的在线检测。解放了人力资源,提升了装配效率。
-
-
-
-
-
-
-
-
-