基于点线面解耦6-DoF位姿估计优化方法及系统

    公开(公告)号:CN118010024A

    公开(公告)日:2024-05-10

    申请号:CN202410036048.1

    申请日:2024-01-10

    Applicant: 常州大学

    Abstract: 本发明涉及室内定位技术领域,尤其涉及基于点线面解耦6‑DoF位姿估计优化方法及系统,包括计算点特征和线特征的相似度,并得到簇;并利用最小二乘法拟合簇内点并建立平面方程;构建系数矩阵;从而得到平面法向量和拟合的平面中心点;并进行平面特征匹配;提取图像中的曼哈顿世界坐标系,并跟踪点线面特征估计相机姿态;根据曼哈顿世界坐标系的结构约束进行解耦相机位姿,分别解耦计算旋转和平移矩阵;插入关键帧及点线面特征联合对相机位姿和地图结构进行优化。本发明在室内结构化场景中,通过结合点线面特征融合,解决复杂场景下因为凹凸不平的平面和不平整的纹理信息导致平面跟踪失败的情况;以及因为受光照影响的点特征无法提取的弱点。

    一种基于融合逆强化学习的轨迹预测方法

    公开(公告)号:CN114445465A

    公开(公告)日:2022-05-06

    申请号:CN202210189127.7

    申请日:2022-02-28

    Applicant: 常州大学

    Abstract: 本发明涉及行人轨迹预测与分析技术领域,尤其涉及一种基于融合逆强化学习的轨迹预测方法,包括S1、基于输入的观测轨迹和场景图生成路径奖励地图和终点奖励地图;S2、利用逆强化学习算法对策略采样得到路径;S3、利用全卷积网络进行路径位置编码,融合双向门控循环单元对场景路径编码,融合场景路径和行人观测轨迹。本发明通过引入轻量化的特征提取ENet网络,减少了算法参数量,提升了算法理解场景的泛化能力;利用场景的注意力机制模块,更好的融合场景信息和行人观测轨迹,场景导向的行人轨迹预测网络S2Tirl相较于主流算法在公共数据集和实际数据上都取得了更好的效果。

    一种基于深度融合测距的移动机器人自适应跟随方法

    公开(公告)号:CN114937070A

    公开(公告)日:2022-08-23

    申请号:CN202210695752.9

    申请日:2022-06-20

    Applicant: 常州大学

    Abstract: 本发明涉及机器人应用技术领域,尤其涉及一种基于深度融合测距的移动机器人自适应跟随方法,包括利用单目相机获取深度图像和彩色图像;引入MaskR‑CNN算法,获得行人掩模和行人掩膜区域的深度像素的总数量;引入单目深度估计算法输出推理深度图像,替换相机深度图像中的无效像素点;利用掩膜从相机深度图像中提取行人区域深度像素点,准确测量人‑机距离;利用比例积分微分控制器调整目标行人和机器人之间的距离和角度偏差。本发明引入MaskR‑CNN实例分割算法和单目深度估计算法,再融合相机深度信息,计算目标行人和机器人的距离和角度,并将位置信息发送至机器人的比例微分积分控制模块,实现目标行人的稳定跟随。

    基于曼哈顿结构面特征约束的视觉SLAM方法及系统

    公开(公告)号:CN117490679A

    公开(公告)日:2024-02-02

    申请号:CN202311372948.5

    申请日:2023-10-23

    Applicant: 常州大学

    Abstract: 本发明涉及室内定位技术领域,尤其涉及基于曼哈顿结构面特征约束的视觉SLAM方法及系统,包括采集室内场景深度图像和彩色图像数据;将图像中的点云转为世界坐标系下的三维坐标,结合深度信息和超像素值进行平面特征提取;根据提取的平面特征,以地面为基准构建曼哈顿结构面,并存储对应的观测值和相应帧,对于新插入的关键帧进行曼哈顿坐标系关联;根据平面特征关联解耦合相机位姿估计,分别计算旋转和平移估计;将局部地图中的平面与曼哈顿坐标系建立联系,结合点特征、面特征、结构约束和地面约束进行后端优化。本发明克服低纹理场景下点线特征错匹配、误匹配等问题。

    可穿越代价模型训练方法、路径生成方法以及装置

    公开(公告)号:CN116579398A

    公开(公告)日:2023-08-11

    申请号:CN202310367184.4

    申请日:2023-04-07

    Applicant: 常州大学

    Abstract: 本申请涉及计算机视觉技术领域,公开了一种可穿越代价模型训练方法、路径生成方法以及装置,所述方法包括:根据预先采集的第一图像和对应的标注图像训练归一化植被网络,得到归一化植被模型;所述标注图像为根据所述第一图像的归一化植被指数标注的图像;利用所述归一化植被模型处理第二图像,得到所述第二图像的植被像素;根据所述植被像素和对应的深度值,训练可穿越代价网络,得到可穿越代价模型;所述深度值为通过预先采集所述第二图像的深度图得到的。本实施例中的方法可以能实时将采集到的图像输入可穿越代价模型,并通过可穿越代价模型实时预测植被的可穿越代价,并依据预测得到的可穿越代价规划出可行路径,可确保驾驶汽车的驾驶安全。

Patent Agency Ranking