-
公开(公告)号:CN119310827A
公开(公告)日:2025-01-14
申请号:CN202411428330.0
申请日:2024-10-14
Applicant: 北京理工大学 , 北京理工大学长三角研究院(嘉兴)
IPC: G05B11/42
Abstract: 本发明公开了一种将双平衡车重构四轮车的轨迹规划方法,包括:建立两辆平衡车之间的无线通信,根据前车的状态信息计算最佳对接准备位置,使用二次规划方法生成后车从当前位置到最佳对接准备位置的路径,并基于动态规划和二次优化对后车速度进行规划;确定前车与后车的纵轴线平行,根据前车的状态信息和机械重构机构的结构参数,计算预定对接位置,并采用轨迹规划方法生成从最佳对接准备位置到预定对接位置的轨迹;使用传感器实时监测两车的位置和速度信息,采用双PID控制器结合速度形式的控制方法,沿生成的轨迹,驱动后车对接连接器沿直线连接线向前车对接口运动,直至对接连接器与对接口接触完成对接。本发明提高了路径规划的效率和准确性。
-
公开(公告)号:CN116124162B
公开(公告)日:2024-03-26
申请号:CN202211695991.0
申请日:2022-12-28
Applicant: 北京理工大学 , 北京理工大学长三角研究院(嘉兴)
IPC: G01C21/34
Abstract: 本发明提供了一种基于高精地图的园区小车导航方法,包括:获取车辆在高精地图的定位信息;基于定位信息和终点位置,判断车辆和上帧通行路径的状态,基于状态更新上帧通行路径;基于更新后的上帧通行路径判断车辆是否到达终点,如到达终点,则给出停车信号,否则,发布导航信息;重复上述步骤,直到导航结束。本发明减少了局部规划的工作量,提高了自动驾驶系统的整体响应速度;使用高精地图辅助定位,降低了定位模块对GPS的依赖,在GPS信号丢失时导航系统依然可以正常工作;针对全局规划提出了一种规划逻辑,进一步减少了运算量,满足了自动驾驶车辆车道级导航的需求。
-
公开(公告)号:CN117369469A
公开(公告)日:2024-01-09
申请号:CN202311460885.9
申请日:2023-11-06
Applicant: 北京理工大学 , 北京理工大学长三角研究院(嘉兴)
Abstract: 本申请公开了一种基于NURBS的车辆全局路径平滑方法及系统,其中方法步骤包括:对自动驾驶场景周边环境进行测绘,得到自动驾驶场景的激光雷达点云地图;在激光雷达点云地图上进行节点标识,完成拓扑地图绘制;对标识的节点进行权重评估,得到权重系数;基于权重系数,在拓扑地图上确定最优全局路径;对全局路径进行NURBS曲线平滑处理,得到NURBS路径;根据自动驾驶车辆需求,更新NURBS路径,直至完成自动驾驶任务。本申请解决了拓扑路径无法满足车辆运动学要求的问题,同时对自动驾驶车辆的停靠等临时需求提出了一种新的解决方案,减少了规划系统的处理量。
-
公开(公告)号:CN116124162A
公开(公告)日:2023-05-16
申请号:CN202211695991.0
申请日:2022-12-28
Applicant: 北京理工大学 , 北京理工大学长三角研究院(嘉兴)
IPC: G01C21/34
Abstract: 本发明提供了一种基于高精地图的园区小车导航方法,包括:获取车辆在高精地图的定位信息;基于定位信息和终点位置,判断车辆和上帧通行路径的状态,基于状态更新上帧通行路径;基于更新后的上帧通行路径判断车辆是否到达终点,如到达终点,则给出停车信号,否则,发布导航信息;重复上述步骤,直到导航结束。本发明减少了局部规划的工作量,提高了自动驾驶系统的整体响应速度;使用高精地图辅助定位,降低了定位模块对GPS的依赖,在GPS信号丢失时导航系统依然可以正常工作;针对全局规划提出了一种规划逻辑,进一步减少了运算量,满足了自动驾驶车辆车道级导航的需求。
-
公开(公告)号:CN114152942A
公开(公告)日:2022-03-08
申请号:CN202111488126.4
申请日:2021-12-08
Applicant: 北京理工大学 , 北京理工大学长三角研究院(嘉兴)
IPC: G01S13/86 , G01S13/931
Abstract: 本发明公开了一种毫米波雷达与视觉二阶融合多分类目标检测方法,包括:基于标定工具获取相机的内参矩阵和相机与毫米波雷达的外参矩阵;对毫米波雷达发出的can报文进行解析和滤波,获得毫米波雷达检测信息,将毫米波雷达检测信息以第一形式进行广播;预设目标类别,基于目标类别对相机获得的每帧图像进行检测,获取视觉检测框信息,将视觉检测框信息以第二形式进行广播;对第一广播和第二广播进行监听,同时收到广播时采集毫米波雷达检测信息和视觉检测框信息进行处理,输出最终目标检测结果。本方法从后融合角度有效解决了多类别检测目标匹配问题,使得毫米波雷达和相机的检测信息互补,尽可能减少漏检情况,提高了自动驾驶的安全性。
-
公开(公告)号:CN114279468B
公开(公告)日:2022-06-14
申请号:CN202111663846.X
申请日:2021-12-31
Applicant: 北京理工大学 , 北京理工大学长三角研究院(嘉兴)
Abstract: 本发明公开了基于统计分析的毫米波雷达与视觉相机动态标定方法,包括:建立毫米波雷达和视觉相机的坐标系,确定旋转角、位移量和动态标定物移动位置;根据所述旋转角、位移量和动态标定物移动位置采集毫米波雷达和视觉相机投影动态数据,采用统计分析的方法确定毫米波雷达相对视觉相机的旋转角和位移量。本发明一方面不需要精确的测量毫米波雷达和视觉相机的相对位置关系,不需要精密的距离和角度测量仪器,减少测量成本和标定难度;另一方面,采用统计分析的方法,在不同坐标系下,将旋转矩阵和位移向量的参数彼此间解耦并分别确定,与同时对多参数寻优的方法相比,简化了确定参数的运算过程,且收敛性更高。
-
公开(公告)号:CN114152942B
公开(公告)日:2022-08-05
申请号:CN202111488126.4
申请日:2021-12-08
Applicant: 北京理工大学 , 北京理工大学长三角研究院(嘉兴)
IPC: G01S13/86 , G01S13/931
Abstract: 本发明公开了一种毫米波雷达与视觉二阶融合多分类目标检测方法,包括:基于标定工具获取相机的内参矩阵和相机与毫米波雷达的外参矩阵;对毫米波雷达发出的can报文进行解析和滤波,获得毫米波雷达检测信息,将毫米波雷达检测信息以第一形式进行广播;预设目标类别,基于目标类别对相机获得的每帧图像进行检测,获取视觉检测框信息,将视觉检测框信息以第二形式进行广播;对第一广播和第二广播进行监听,同时收到广播时采集毫米波雷达检测信息和视觉检测框信息进行处理,输出最终目标检测结果。本方法从后融合角度有效解决了多类别检测目标匹配问题,使得毫米波雷达和相机的检测信息互补,尽可能减少漏检情况,提高了自动驾驶的安全性。
-
公开(公告)号:CN114279468A
公开(公告)日:2022-04-05
申请号:CN202111663846.X
申请日:2021-12-31
Applicant: 北京理工大学 , 北京理工大学长三角研究院(嘉兴)
Abstract: 本发明公开了基于统计分析的毫米波雷达与视觉相机动态标定方法,包括:建立毫米波雷达和视觉相机的坐标系,确定旋转角、位移量和动态标定物移动位置;根据所述旋转角、位移量和动态标定物移动位置采集毫米波雷达和视觉相机投影动态数据,采用统计分析的方法确定毫米波雷达相对视觉相机的旋转角和位移量。本发明一方面不需要精确的测量毫米波雷达和视觉相机的相对位置关系,不需要精密的距离和角度测量仪器,减少测量成本和标定难度;另一方面,采用统计分析的方法,在不同坐标系下,将旋转矩阵和位移向量的参数彼此间解耦并分别确定,与同时对多参数寻优的方法相比,简化了确定参数的运算过程,且收敛性更高。
-
公开(公告)号:CN114740458A
公开(公告)日:2022-07-12
申请号:CN202210410155.7
申请日:2022-04-19
Applicant: 北京理工大学 , 北京理工大学长三角研究院(嘉兴)
IPC: G01S7/497
Abstract: 本发明公开了一种单线激光雷达与多线激光雷达动态联合标定方法,包括以下步骤:建立单线激光雷达坐标系OcXcYcZc与多线激光雷达坐标系OrXrYrZr,设定旋转矩阵、旋转角、位移和标定板位置;将标定板保持与地面垂直并且与ZrOrXr平面平行,放置在距离ZrOrXr平面Yx处,采集单线雷达标定板点云数据,确定第一旋转角和第一位移;将标定板保持与地面垂直并且与XrOrYr平面平行,放置在距XrOrYr平面Xx处,采集多线雷达标定板点云数据,确定第二旋转角和第二位移;将标定板保持与地面垂直并且与XrOrYr平面平行,放置在距XrOrYr平面Xx处,采集多线雷达标定板点云数据,确定第三旋转角和第三位移。
-
公开(公告)号:CN116182833A
公开(公告)日:2023-05-30
申请号:CN202211672134.9
申请日:2022-12-26
Applicant: 北京理工大学 , 北京理工大学长三角研究院(嘉兴)
Abstract: 本发明涉及一种小场景高精度地图的构建方法,包括:使用搭载激光雷达和惯性测量单元的小车进行场景测绘,获取所述场景的点云地图;基于标注工具对所述点云地图进行标注,并构建路网模型,完成所述场景的构建。本发明方法适用于任何场景,采集环境数据后人工绘制高精度地图,灵活性大,能有效辅助自动驾驶系统各子模块的工作。
-
-
-
-
-
-
-
-
-