一种多视角特征引导的大范围场景三维建模方法及系统

    公开(公告)号:CN119359939A

    公开(公告)日:2025-01-24

    申请号:CN202411943433.0

    申请日:2024-12-27

    Applicant: 湖南大学

    Abstract: 本发明公开了一种多视角特征引导的大范围场景三维建模方法及系统,获取多个视角相机的图像,并输入至多视角立体视觉三维重建神经网络模型中,模型包括多阶段上下文特征提取模块、多视角图像匹配代价构建模块、多视角匹配代价特征聚合网络和视差回归预测模块,通过多视角图像交叉特征迁移互相关匹配代价构建方法构建多视角匹配代价,通过可微分的多视角联合特征引导的各项异性扩散代价聚合方法聚合多视角匹配代价特征,结合损失函数对神经网络模型进行训练,提升多视角三维场景重建性能和深度估计精度。通过训练构建好的多视角立体视觉三维重建神经网络模型,对多视角视频图像进行推理,并实现大范围制造场景动态三维重建。

    一种针对大型装配过程全场景的统一化三维目标检测方法

    公开(公告)号:CN118864827A

    公开(公告)日:2024-10-29

    申请号:CN202411345989.X

    申请日:2024-09-26

    Applicant: 湖南大学

    Abstract: 一种针对大型装配过程全场景的统一化三维目标检测方法,包括:1、构建全场景激光雷达感知平台,采集三维点云数据;2、制作装配制造场景的检测数据集;3、构建三维目标检测模型;4、将训练集中的数据输入到三维目标检测模型中,得到目标分类结果和目标边界框回归结果;5、构建总损失函数,计算目标分类结果与目标边界框回归结果的损失值,循环4至5,直至总损失函数收敛,更新权重,得到训练后的三维目标检测模型;6、对训练后的三维目标检测模型进行测试,得到检测结果。本发明增加了装配效率,提高了装配质量,能及时发现和处理装配过程中的问题,避免了制造业中传统人工装配过程的安全隐患,有助于推动工业智能制造快速且高质量的发展。

    一种基于局部纹理增强网络的杆塔关键部件缺陷识别方法

    公开(公告)号:CN115761268A

    公开(公告)日:2023-03-07

    申请号:CN202211488812.6

    申请日:2022-11-25

    Applicant: 湖南大学

    Abstract: 本发明公开了一种基于局部纹理增强网络的杆塔关键部件缺陷识别方法,可以通过体征提取及纹理增强模块能够提取到具备纹理信息的判别性特征,同时通过特征融合模块对不同分辨率的特征进行融合,使得输出特征同时具备语义和像素级信息,最后通过杆塔部件缺陷识别模块对杆塔关键部件缺陷进行识别并输出缺陷的定位和置信度。此网络可直接应用于电力巡检过程,对杆塔的关键部件及缺陷进行识别,具有识别精度高、泛化能力强的特点,将传统电力巡检过程与前沿的深度学习方法和神经网络技术进行结合,可以有效地解决传统人工巡检效率低、现有检测方法效果差的问题,实现杆塔巡检过程的智能化和自主化,并在一定程度上能够保障电力线路的正常运转。

    一种基于矩特征学习神经网络的异形曲面跟踪方法及系统

    公开(公告)号:CN108717262A

    公开(公告)日:2018-10-30

    申请号:CN201810454177.7

    申请日:2018-05-14

    Applicant: 湖南大学

    Abstract: 本发明公开了一种基于矩特征学习神经网络的异形曲面跟踪方法及系统,所述方法包括如下步骤:获取期望矩特征向量;获取初始矩特征向量、初始矩特征向量的雅可比矩阵、机械臂的目标关节角速度向量;利用期望矩特征向量、初始矩特征向量以及械臂关节角速度矩阵对B样条基的神经网络控制器进行深度离线训练;机械臂关节角速度向量将当前矩特征向量与所述期望矩特征向量的特征误差输入训练后的B样条基的神经网络控制器得到当前位姿下机械臂关节角速度向量;依据当前位姿下机械臂关节角速度向量控制机械臂运动使机械臂端的相机随之移动。本发明通过上述方法可以实现异形曲面精确定位跟踪。

    一种大范围制造场景立体重建方法及系统

    公开(公告)号:CN119919594A

    公开(公告)日:2025-05-02

    申请号:CN202510398646.8

    申请日:2025-04-01

    Applicant: 湖南大学

    Abstract: 本发明公开了一种大范围制造场景立体重建方法及系统,首先搭建场景重建模型并训练,获取大范围制造场景下的待处理图像对并输入训练后的场景重建模型,场景重建模型的一元特征提取与增强模块接收输入图像对并进行特征提取与增强处理,将增强后的一元特征输入成本体积构建模块处理,输出联合体积,3D聚合模块接收联合体积并逐层优化,输出优化后的成本体积,视差预测模块获取优化后的成本体积并处理,输出待处理图像对对应的预测视差图,将预测视差图转化为真实世界下的三维空间数据,由此完成制造场景立体重建。该方法及系统不仅适用于具有复杂结构的大规模制造场景,还能够以高精度还原场景的空间细节。

    一种基于视觉编码器的古建筑图像自适应风格迁移方法

    公开(公告)号:CN116309022A

    公开(公告)日:2023-06-23

    申请号:CN202310216506.5

    申请日:2023-03-08

    Applicant: 湖南大学

    Abstract: 本发明公开了一种基于视觉编码器的古建筑图像自适应风格迁移方法,基于视觉编码‑解码风格迁移神经网络,在特征编码器阶段,获得建筑图像多阶段相对位置编码特征,再设计自适应颜色与结构特征迁移融合模块,对提取的建筑内容特征与建筑风格特征进行多阶段多尺度融合,自适应颜色与结构特征迁移融合模块采用多种风格特征迁移方法进行特征迁移融合;接着在特征解码器阶段,对建筑内容特征与建筑风格特征进一步迁移与融合。该模型对古建筑风格迁移测试集进行预测,大幅度提高了风格迁移估计精度,解决了建筑场景描绘精细化、形态规范化、纹理色彩标准化等问题,实现建筑遗产空间叙事再现。

Patent Agency Ranking