-
公开(公告)号:CN113376669B
公开(公告)日:2022-11-15
申请号:CN202110692167.9
申请日:2021-06-22
Applicant: 东南大学
Abstract: 发明公开了一种基于点线特征的单目VIO‑GNSS融合定位算法。首先对基于点特征的VIO增加线特征提取模块,并提出一种基于几何约束的线特征匹配策略以增强图像特征约束。此后,将加入的线特征与原VIO提取的点特征共同作为视觉特征信息,与IMU预积分结果共同输入至非线性优化的滑动窗口内,最小化所有测量残差的代价函数,获得VIO局部位姿估计结果。下一步,通过杆臂补偿方程将VIO位姿估计结果从局部VIO坐标系转至全局ECEF坐标系,最后将ECEF坐标系下的VIO位姿估计值与GNSS观测值共同输入卡尔曼滤波器内,构建传播和测量更新过程中的误差状态向量,实现VIO和GNSS的松耦合位姿估计。
-
公开(公告)号:CN113075676B
公开(公告)日:2022-04-29
申请号:CN202110317996.9
申请日:2021-03-25
Applicant: 东南大学
IPC: G01S17/08 , G01S17/931 , G01S19/44
Abstract: 本发明公开了一种基于车道线里程匹配的隧道内车辆定位方法。首先读入高精度车道线信息,在进入隧道前根据卫星定位的结果,按垂直方向匹配对应的车道线点,记为里程约束的起始点,之后根据车轮测速仪开始累积车辆里程,并利用激光雷达获得车辆距离隧道墙壁的距离,间接得到车辆距车道线的距离,再通过车辆总里程匹配车道线对应点,完成车辆的隧道内定位。应用本发明的测量方法在10km的隧道内车辆定位的绝对平面精度为1‑3m。
-
公开(公告)号:CN112907573A
公开(公告)日:2021-06-04
申请号:CN202110317990.1
申请日:2021-03-25
Applicant: 东南大学
Abstract: 本发明公开了一种基于3D卷积的深度补全方法,采用3D卷积的方法进行模态特征的学习,将输入的RGB图像与深度图信息相结合,通过捕获在多模态信息中的编码结构进行卷积运算,从而保证信息不被丢失。本发明利用3D卷积对RGB图像和稀疏深度进行特征融合,在网络对输入数据进特征提取的同时保留其模态特征,以充分挖掘数据信息提高深度估计的精度。实验结果表明在室内数据集中3D卷积对于深度补全的精度提升达到了7%以上,而在室外数据集上,其提升效果也达到了3.6%以上。其中室内时精度可达到0.2m,室外时精度也可达到1.2m左右。
-
公开(公告)号:CN113075676A
公开(公告)日:2021-07-06
申请号:CN202110317996.9
申请日:2021-03-25
Applicant: 东南大学
IPC: G01S17/08 , G01S17/931 , G01S19/44
Abstract: 本发明公开了一种基于车道线里程匹配的隧道内车辆定位方法。首先读入高精度车道线信息,在进入隧道前根据卫星定位的结果,按垂直方向匹配对应的车道线点,记为里程约束的起始点,之后根据车轮测速仪开始累积车辆里程,并利用激光雷达获得车辆距离隧道墙壁的距离,间接得到车辆距车道线的距离,再通过车辆总里程匹配车道线对应点,完成车辆的隧道内定位。应用本发明的测量方法在10km的隧道内车辆定位的绝对平面精度为1‑3m。
-
公开(公告)号:CN113837277B
公开(公告)日:2022-11-18
申请号:CN202111123551.3
申请日:2021-09-24
Applicant: 东南大学
Abstract: 本发明公开了一种基于视觉点线特征优化的多源融合SLAM系统。首先提出一种改进尺度空间的视觉线特征提取方法,并利用基于最小二范数的约束匹配策略对前后帧间同一线特征进行约束匹配,为视觉里程计前端提供更为丰富的特征信息。其次将多帧激光点云投影到视觉坐标系中,实现激光点云和视觉特征深度关联,并利用视觉初始位姿估计结果辅助优化激光雷达扫描匹配精度。最后采用基于贝叶斯网络的因子图法搭建激光‑视觉‑惯性里程计系统,并引入GNSS因子和回环因子对激光‑视觉‑惯性里程计进行全局约束。通过实验对比可知,本算法在实时性、定位精度和建图效果方面均优于同类算法,可以在EuROC数据集中实现定位和建图精度均较优的实时位姿估计。
-
公开(公告)号:CN112907573B
公开(公告)日:2022-04-29
申请号:CN202110317990.1
申请日:2021-03-25
Applicant: 东南大学
Abstract: 本发明公开了一种基于3D卷积的深度补全方法,采用3D卷积的方法进行模态特征的学习,将输入的RGB图像与深度图信息相结合,通过捕获在多模态信息中的编码结构进行卷积运算,从而保证信息不被丢失。本发明利用3D卷积对RGB图像和稀疏深度进行特征融合,在网络对输入数据进特征提取的同时保留其模态特征,以充分挖掘数据信息提高深度估计的精度。实验结果表明在室内数据集中3D卷积对于深度补全的精度提升达到了7%以上,而在室外数据集上,其提升效果也达到了3.6%以上。其中室内时精度可达到0.2m,室外时精度也可达到1.2m左右。
-
公开(公告)号:CN111144441A
公开(公告)日:2020-05-12
申请号:CN201911217648.3
申请日:2019-12-03
Applicant: 东南大学
Abstract: 本发明公开了一种基于特征匹配的DSO光度参数估计方法及装置。该方法首先对当前图像帧提取特征点作为该帧特征点的候选点,然后与上一帧中确定的特征点进行特征匹配,应用设计的特征匹配筛选策略剔除误匹配,利用设计的特征点激活策略选取满足条件的候选点作为当前帧的特征点,以此建立起特征点之间的关联。最后基于相机成像函数模型,构建误差函数采用非线性优化方法对光度参数进行估计。使用本发明提出的方法,能够从任意视频序列中估计出光度参数,应用本发明估计的光度参数进行光度标定能够将DSO的定位精度提升约30%。
-
公开(公告)号:CN111144441B
公开(公告)日:2023-08-08
申请号:CN201911217648.3
申请日:2019-12-03
Applicant: 东南大学
Abstract: 本发明公开了一种基于特征匹配的DSO光度参数估计方法及装置。该方法首先对当前图像帧提取特征点作为该帧特征点的候选点,然后与上一帧中确定的特征点进行特征匹配,应用设计的特征匹配筛选策略剔除误匹配,利用设计的特征点激活策略选取满足条件的候选点作为当前帧的特征点,以此建立起特征点之间的关联。最后基于相机成像函数模型,构建误差函数采用非线性优化方法对光度参数进行估计。使用本发明提出的方法,能够从任意视频序列中估计出光度参数,应用本发明估计的光度参数进行光度标定能够将DSO的定位精度提升约30%。
-
公开(公告)号:CN112907610B
公开(公告)日:2022-04-29
申请号:CN202110317982.7
申请日:2021-03-25
Applicant: 东南大学
IPC: G06T7/13 , G06T7/20 , G06K9/62 , G06V10/764
Abstract: 本发明公开了一种基于LeGO‑LOAM的分步式帧间位姿估计算法。首先读入激光雷达的点云信息,并将点云划分为地面点和非地面点,再标记小集群点。在对点云进行分类之后,在地面点中提取地面特征点,在非地面点中提取边缘特征点。之后对位姿进行分步求解,步骤一通过地面特点计算得到帧间位姿的翻滚角、俯仰角和竖直方向的位移,并将计算得到的三自由度位姿代入步骤二的边缘特征点计算偏航角以及水平面上位移的过程,在步骤二中对六自由度位姿同时进行优化,最后再与地图点共同优化位姿。应用本发明的方法求解的轨迹精度较LeGO‑LOAM算法的轨迹精度提升最高达45.4%。
-
公开(公告)号:CN113837277A
公开(公告)日:2021-12-24
申请号:CN202111123551.3
申请日:2021-09-24
Applicant: 东南大学
Abstract: 本发明公开了一种基于视觉点线特征优化的多源融合SLAM系统。首先提出一种改进尺度空间的视觉线特征提取方法,并利用基于最小二范数的约束匹配策略对前后帧间同一线特征进行约束匹配,为视觉里程计前端提供更为丰富的特征信息。其次将多帧激光点云投影到视觉坐标系中,实现激光点云和视觉特征深度关联,并利用视觉初始位姿估计结果辅助优化激光雷达扫描匹配精度。最后采用基于贝叶斯网络的因子图法搭建激光‑视觉‑惯性里程计系统,并引入GNSS因子和回环因子对激光‑视觉‑惯性里程计进行全局约束。通过实验对比可知,本算法在实时性、定位精度和建图效果方面均优于同类算法,可以在EuROC数据集中实现定位和建图精度均较优的实时位姿估计。
-
-
-
-
-
-
-
-
-