-
公开(公告)号:CN116399326B
公开(公告)日:2023-10-13
申请号:CN202310383930.9
申请日:2023-04-06
Applicant: 安徽工程大学
Abstract: 本发明公开了一种基于自适应关键帧选取的机器人地图构建方法,包括下列步骤:步骤S1、采集当前场景的图像信息,提取图像特征并计算相机位姿;步骤S2、机器人运动过程中提取图像关键帧信息,并在曲线运动的关键帧选取过程中创建局部逆向索引窗口;步骤S3、在局部逆向索引窗口内采用自适应阈值的关键帧选取策略补充曲线运动漏选的关键帧;步骤S4、依据关键帧携带的信息进行地图构建。本发明通过引入自适应阈值的关键帧选取策略,解决了机器人面对大曲率运动漏选关键帧的问题,提高了机器人的定位能力和建图能力。
-
公开(公告)号:CN114707611B
公开(公告)日:2022-10-11
申请号:CN202210423431.3
申请日:2022-04-21
Applicant: 安徽工程大学
Abstract: 本发明公开了基于图神经网络特征提取与匹配的移动机器人地图构建方法、存储介质及设备,其中方法包括下列步骤:步骤S1,通过先验位置估计特征提取图神经网络,对图像特征点进行快速均匀检测与描述,构建相应特征点信息;步骤S2,通过图注意力机制特征匹配中的消息传递图神经网络聚合特征点信息;步骤S3,使用自我与联合注意力机制对前后帧图像进行分权重特征匹配;步骤S4,优化筛选已建立的特征匹配点对集合,并将优化后的高吻合度匹配点对与系统后端的非线性优化、闭环修正算法相融合,进行相机位姿估计与局部地图构建。本发明有助于提升特征提取算法在面对外界光照变化剧烈与纹理稀疏场景下的稳定性与准确性,并加快特征匹配的速度。
-
公开(公告)号:CN114782691A
公开(公告)日:2022-07-22
申请号:CN202210415251.0
申请日:2022-04-20
Applicant: 安徽工程大学
IPC: G06V10/26 , G06V10/80 , G06V10/82 , G06K9/62 , G06T7/579 , G06T7/73 , G06T5/50 , G06N3/04 , G06N3/08
Abstract: 本发明公开了基于深度学习的机器人目标识别与运动检测方法、存储介质及设备,其中方法包括下列步骤:步骤S1、通过融合注意力机制和位置编码的实例分割网络对潜在动态物体所在区域添加掩膜;步骤S2、利用场景中实例分割掩膜外的静态特征点对相机位姿进行估计;步骤S3,通过相机位姿估计出物体位姿变换矩阵;步骤S4,由运动视差与微分熵之间关系判断出物体特征点运动状态,从而判断整个物体运动状态;步骤S5,剔除其中的动态物体,并修复剔除区域的静态背景,用于位姿估计与地图构建。本发明提高被遮挡动态物体分割边界的精确度,剔除动态区域特征点减少动态物体对系统的影响。
-
公开(公告)号:CN114707611A
公开(公告)日:2022-07-05
申请号:CN202210423431.3
申请日:2022-04-21
Applicant: 安徽工程大学
Abstract: 本发明公开了基于图神经网络特征提取与匹配的移动机器人地图构建方法、存储介质及设备,其中方法包括下列步骤:步骤S1,通过先验位置估计特征提取图神经网络,对图像特征点进行快速均匀检测与描述,构建相应特征点信息;步骤S2,通过图注意力机制特征匹配中的消息传递图神经网络聚合特征点信息;步骤S3,使用自我与联合注意力机制对前后帧图像进行分权重特征匹配;步骤S4,优化筛选已建立的特征匹配点对集合,并将优化后的高吻合度匹配点对与系统后端的非线性优化、闭环修正算法相融合,进行相机位姿估计与局部地图构建。本发明有助于提升特征提取算法在面对外界光照变化剧烈与纹理稀疏场景下的稳定性与准确性,并加快特征匹配的速度。
-
公开(公告)号:CN116399326A
公开(公告)日:2023-07-07
申请号:CN202310383930.9
申请日:2023-04-06
Applicant: 安徽工程大学
Abstract: 本发明公开了一种基于自适应关键帧选取的机器人地图构建方法,包括下列步骤:步骤S1、采集当前场景的图像信息,提取图像特征并计算相机位姿;步骤S2、机器人运动过程中提取图像关键帧信息,并在曲线运动的关键帧选取过程中创建局部逆向索引窗口;步骤S3、在局部逆向索引窗口内采用自适应阈值的关键帧选取策略补充曲线运动漏选的关键帧;步骤S4、依据关键帧携带的信息进行地图构建。本发明通过引入自适应阈值的关键帧选取策略,解决了机器人面对大曲率运动漏选关键帧的问题,提高了机器人的定位能力和建图能力。
-
公开(公告)号:CN114782691B
公开(公告)日:2022-10-11
申请号:CN202210415251.0
申请日:2022-04-20
Applicant: 安徽工程大学
IPC: G06V10/26 , G06V10/80 , G06V10/82 , G06K9/62 , G06T7/579 , G06T7/73 , G06T5/50 , G06N3/04 , G06N3/08
Abstract: 本发明公开了基于深度学习的机器人目标识别与运动检测方法、存储介质及设备,其中方法包括下列步骤:步骤S1、通过融合注意力机制和位置编码的实例分割网络对潜在动态物体所在区域添加掩膜;步骤S2、利用场景中实例分割掩膜外的静态特征点对相机位姿进行估计;步骤S3,通过相机位姿估计出物体位姿变换矩阵;步骤S4,由运动视差与微分熵之间关系判断出物体特征点运动状态,从而判断整个物体运动状态;步骤S5,剔除其中的动态物体,并修复剔除区域的静态背景,用于位姿估计与地图构建。本发明提高被遮挡动态物体分割边界的精确度,剔除动态区域特征点减少动态物体对系统的影响。
-
-
-
-
-