-
公开(公告)号:CN117784122A
公开(公告)日:2024-03-29
申请号:CN202311812659.2
申请日:2023-12-27
Applicant: 北京航空航天大学合肥创新研究院 , 北京航空航天大学
Abstract: 本发明涉及自动驾驶技术领域,提出了一种面向恶劣环境的激光‑毫米波雷达融合障碍物检测方法,步骤如下:步骤1、利用激光雷达获取原始点云,并从原始点云中提出真实障碍物信息,获得激光雷达障碍物点云;步骤2、利用毫米波雷达获取原始毫米波点云,提取其中的真实障碍物信息,获得毫米波雷达障碍物点云;步骤3、将步骤1中的提取的真实障碍物信息和步骤2中提取的真实障碍物信息进行融合,输出障碍物检测结果。本发明的检测方法能够解决现有矿区在恶劣环境下单一传感器障碍物检测不稳定的问题。
-
公开(公告)号:CN116309871A
公开(公告)日:2023-06-23
申请号:CN202310241552.0
申请日:2023-03-14
Applicant: 北京航空航天大学合肥创新研究院(北京航空航天大学合肥研究生院)
Abstract: 本发明公开了一种面向生态园环境的激光雷达和相机在线标定方法,包括步骤:在自动清洁小车上安装激光雷达和摄像头;利用激光雷达和摄像头分别进行数据采集,得到点云数据和RGB图像;利用太阳能面板在RGB图像中的成像特性,提取RGB图像中的太阳能面板特征像素;利用激光雷达在不同材料上的反射强度不同的特性,提取点云数据中的太阳能面板特征点云;通过动态规划算法对特征像素和特征点云进行滤波和中心化处理,得到图像和点云特征点集合;基于kdtree最近邻匹配的ICP算法对图像和点云特征点集合进行求解,得到外参矩阵。该方法能够自动、快速和准确地确定激光雷达和相机的外参矩阵,为无人驾驶小车在生态园中的高效工作奠定基础。
-
公开(公告)号:CN117953466A
公开(公告)日:2024-04-30
申请号:CN202410004811.2
申请日:2024-01-03
Applicant: 北京航空航天大学合肥创新研究院 , 北京航空航天大学
IPC: G06V20/58 , G01S7/497 , G06V10/764 , G06V10/44 , G06V10/80 , G06V10/82 , G06T7/73 , G06T7/80 , G06T7/62
Abstract: 本发明涉及一种机器视觉与激光雷达融合的障碍物检测方法,属于无人控制系统技术领域,本发明的目的在于基于图像和点云数据的融合处理,识别列车前方的障碍物特征、距离、与线路的关系,实现列车(地铁)前向线路净空范围内的障碍物准确检测和距离获取。包括步骤1:获取列车前方图像,基于图像标定目标;步骤2:提取列车前方图像的特征图和图像特征;步骤3:处理步骤2获得的特征图,获得最终特征图;步骤4:基于最终特图获取图像的GIOU结果作为视觉目标检测结果;步骤5:获取列车前方的3D激光点云数据,进而获得点云目标检测结果;步骤6:提取点云目标检测结果中的目标,映射到步骤1的图像中进行验证;获得目标的距离信息、类别和位置信息。
-
公开(公告)号:CN117782113A
公开(公告)日:2024-03-29
申请号:CN202311830831.7
申请日:2023-12-27
Applicant: 北京航空航天大学合肥创新研究院 , 北京航空航天大学
IPC: G01C21/30 , G01S7/48 , G01S17/931 , G06V20/56 , G06V10/40 , G06V10/74 , G06V10/82 , G06V10/46 , G06N3/0464
Abstract: 本发明涉及一种基于激光雷达与视觉融合的轨道巡检车定位方法,属于轨道交通自动驾驶技术领域,解决了现有轨道巡检车定位中容易漂移问题。该方法充分利用了激光雷达和视觉传感器的优势,旨在提供高精度、可靠的自主定位,以支持轨道巡检车在复杂环境中的稳定运行。
-
公开(公告)号:CN114675275A
公开(公告)日:2022-06-28
申请号:CN202210275772.0
申请日:2022-03-21
Applicant: 北京航空航天大学合肥创新研究院(北京航空航天大学合肥研究生院) , 北京踏歌智行科技有限公司
IPC: G01S13/931 , G01S13/89 , G01S13/86 , G01S17/86 , G01S17/931 , G06V10/25 , G06V10/762 , G06V10/82 , G06K9/62 , G06N3/04 , G06N3/08
Abstract: 本发明公开了一种基于4D毫米波雷达与激光雷达融合的目标检测方法,基于4D毫米波雷达的特性,通过4D毫米波雷达点云在三维空间中聚类时生成ROI,只将ROI内的激光雷达送入神经网络进行目标检测;在4D毫米波点云聚类时,提出一种考虑反射强度与速度信息的基于马氏距离的密度聚类;本发明的技术方案,相比于将所有激光雷达点云送入神经网络的方法,大大降低了计算量,提升了目标检测的速度,误识别的概率低,在雨雪、雾、扬尘等场景激光雷达失效时,仍然可以通过4D毫米波雷达感知障碍物在三维空间中的位置,大小,反射强度并进行简单的分类,极大增加了感知系统的抗干扰能力和环境适应能力。
-
公开(公告)号:CN119759234A
公开(公告)日:2025-04-04
申请号:CN202411836624.7
申请日:2024-12-13
Applicant: 北京航空航天大学
IPC: G06F3/04815 , G06F3/01 , G06Q30/0282
Abstract: 本公开的实施例公开了针对不同投影显示与交互技术对比的评价方法。该方法的一具体实施方式包括:创建预设格式用户问卷,其中,预设格式用户问卷包括:多个关键体验指标,预设格式用户问卷为用户按照预设格式填写初始体验数据后的问卷;通知用户在三维虚拟环境中进行多个场景交互,得到交互数据集;在三维虚拟环境中对用户进行认知数据确定,得到用户认知数据;对交互数据集,用户生理数据,用户认知数据和预设格式用户问卷进行数据整合,得到整合后数据集;对整合后数据集进行多维度评分,以对立体呈现系统进行优化。该实施方式通过多维度的评价体系,全面、客观地分析了立体呈现系统和多模态交互系统的性能。
-
公开(公告)号:CN118552946A
公开(公告)日:2024-08-27
申请号:CN202410685257.9
申请日:2024-05-30
Applicant: 北京航空航天大学
IPC: G06V20/64 , G06V10/26 , G06V10/44 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/0455 , G06N3/08
Abstract: 本发明提出一种面向矿区的线缆自动识别方法,属于自动驾驶、智能交通系统、视觉处理的技术领域。本发明实现了矿区线缆的自动识别,最大程度的保证了线缆识别的精度、准确性和实时性,识别出线缆位置,避免其与无人驾驶路径发生干涉,降低事故风险,提高矿区的安全性。使用图像分割模型进行线缆识别,准确识别出图像中线缆所在的位置,在不同场景的数据上进行验证测试,保证在不同天气和不同场景中的结果都能稳定可靠,并且避免误报。将激光雷达扫出的点云投影到图像上,实现图像和点云信息的融合,获得图片中分割出的线缆在三维空间中的实际位置。
-
公开(公告)号:CN118394060A
公开(公告)日:2024-07-26
申请号:CN202410291132.8
申请日:2024-03-14
Applicant: 北京航空航天大学
IPC: G05D1/43 , G05D1/65 , G05D1/633 , G05D1/644 , G05D105/05
Abstract: 本发明涉及路径跟踪控制领域,提出了一种基于强化学习自适应调参的无人矿卡路径跟踪控制方法,包括:S1,设计多点预瞄的纯跟踪PID底层控制器:包括由多点预瞄、纯跟踪算法和PID控制器三部分;S2,计算路径跟踪控制状态:所述跟踪控制状态数据用于底层控制器的权重系数计算及强化学习上层控制器的所述状态空间和奖励函数;S3,设计强化学习上层控制器:强化学习上层控制器用于接收车辆路径跟踪控制状态的输出,对底层控制器中的各项参数进行实时自适应调整,将调整后的各项参数输出给所述底层控制器完成对车辆转向的控制。本发明能够实时自适应调整控制参数,稳定保持高精度控制,增强无人矿卡横向控制系统安全性与可靠性的目的。
-
公开(公告)号:CN118295400A
公开(公告)日:2024-07-05
申请号:CN202410290122.2
申请日:2024-03-14
Applicant: 北京航空航天大学
Abstract: 本发明涉及矿区自动驾驶车辆控制领域,具体涉及一种适用于矿区大曲率路径的强化学习横向控制方法,包括以下步骤:获取用于强化学习训练的矿区路径;对所述矿区路径进行预处理,包括对矿区路径曲率和纵向速度的处理;部署强化学习运行环境;选择强化学习算法,基于车辆位姿和行驶路径的曲率设置强化学习算法的动作空间、状态空间、奖励函数;采集先验数据进行预训练;设置不同的行驶速度和行驶路径的曲率,基于动态衰减学习率进行强化学习训练,获取具有最大奖励状态的大曲率路径跟踪模型;本发明能够提高针对矿区大曲率路径的强化学习的收敛速度和模型性能。
-
公开(公告)号:CN114779764B
公开(公告)日:2024-06-21
申请号:CN202210336477.1
申请日:2022-03-31
Applicant: 北京航空航天大学
Abstract: 一种基于行车风险分析的车辆强化学习运动规划方法,包括:获取本车所在车道的两侧边界信息#imgabs0##imgabs1#由车道两侧边界点横纵坐标(Xr,Xl)以及本车到左右两侧边界的垂直距离(dl,dr)组成;利用高精度地图和雷达获取状态信息数组#imgabs2##imgabs3#由本车坐标位置(X,Y)、障碍物的坐标位置(Xobs,Yobs)和相对速度Δv组成;距离#imgabs4#Δv=[Δv1,Δv2,...,Δvn],n是检测到的障碍物数量;将#imgabs5#和#imgabs6#组合成状态向量相对状态信息#imgabs7#输入基于深度强化学习的车辆运动规划模型Φ,以输出本车动作向量action=[a,θ],其中a∈[‑amax,amax]是加速度动作,amax为最大加速度,θ∈[‑θmax,θmax]是方向盘转角动作,当θ∈[0,θmax]时为向左转动θ,当θ∈[‑θmax,0]时为向右转动θ;本车根据获取的action行驶t时长后,判断是否到达目的地,若是则结束工作状态,否则进入步骤1进行下一时间步长的车辆控制。
-
-
-
-
-
-
-
-
-