一种基于彩色相机与红外热成像仪特征融合的目标检测方法

    公开(公告)号:CN111382683B

    公开(公告)日:2023-05-23

    申请号:CN202010135485.0

    申请日:2020-03-02

    Applicant: 东南大学

    Abstract: 本发明公开了一种基于彩色相机与红外热成像仪特征融合的目标检测方法,包括以下步骤:a、通过彩色相机获得彩色数据集,通过红外热成像仪获得热红外数据集;b、将双模态数据集同时输入到双模态的YOLOv3神经网络算法中,提取目标的颜色特征与温度特征;在主干网络的某一层通过融合函数与1×1卷积块将两个模态的特征融合,然后选取融合后的特征图继续进行主干网络的特征提取,得到融合后的提取特征图;c、融合后的提取特征图输入到后续的卷积层中进行目标的分类,输出训练完成的双模态神经网络的算法模型。本发明融合温度与颜色信息,在双模态神经主干网络算法进行融合,输入分类层中进行目标的预测,增加目标的多种特征信息,提高目标识别准确性。

    一种用于高速匝道入口的多智能网联车辆协同合流控制方法

    公开(公告)号:CN111338351B

    公开(公告)日:2023-01-17

    申请号:CN202010211956.1

    申请日:2020-03-24

    Applicant: 东南大学

    Abstract: 本发明涉及一种用于高速匝道入口的多智能网联车辆协同合流控制方法,包括上层交通管理系统、中央控制系统、受控智能网联车辆以及V2I通信设备;其中上层交通管理系统对车辆合流安全时距以及合流速度做出限制,同时将限制要求发送至中央控制系统;V2I通信设备获取受控智能网联车辆实时行驶状态的信息流,同时将获取的信息流发送至中央控制系统;中央控制系统对获取的各类限制要求以及实时行驶状态信息进行整合计算,并通过V2I通信设备向受控智能网联车辆发出最优控制量指令;本发明缓解道路交通安全隐患,减少高速入口匝道对主道交通流产生的负面影响,同时解决现有匝道合流车辆轨迹规划方法中计算量大难以应用于实时控制器中的问题。

    一种基于深度学习的驾驶员疲劳程度量化方法

    公开(公告)号:CN115457517A

    公开(公告)日:2022-12-09

    申请号:CN202211040819.1

    申请日:2022-08-29

    Applicant: 东南大学

    Abstract: 本发明涉及车辆辅助驾驶系统技术领域,特别是涉及一种基于深度学习的驾驶员疲劳程度量化方法。本发明的方法包括步骤训练人脸关键点检测模型检测眼睛和嘴巴区域的特征点;使用训练好的人脸关键点检测模型对获取的图像进行人脸关键点检测;基于检测到的人脸关键点,拟合眼睛和嘴巴的轮廓曲线;根据拟合的轮廓曲线计算眼睛和嘴巴的面积和纵横比;基于眼睛和嘴巴的面积和纵横比,通过模糊系统获得当前帧的疲劳量化值;使用均值滤波确定此时驾驶员的疲劳值。本发明的方法能够实现对驾驶员的疲劳程度准确、快速的检测和量化。

    考虑纵向跟车行为的驾驶行为模型的参数辨识方法

    公开(公告)号:CN115409106A

    公开(公告)日:2022-11-29

    申请号:CN202211041204.0

    申请日:2022-08-29

    Applicant: 东南大学

    Abstract: 本发明涉及一种考虑纵向跟车行为的驾驶行为模型的参数辨识方法,驾驶行为模型以自车与前车的相对距离和相对速度作为输入,驾驶员对踏板操纵行为作为中间变量,踏板角度作为输出,考虑了人类驾驶员在半自动/自动驾驶车辆行驶中的纵向操纵作用,利用大脑决策行为、神经肌肉信号传导过程和足部与踏板耦合执行过程来表征纵向操纵行为。辨识方法基于递推最小二乘法的辨识模型对驾驶行为模型的状态参数进行辨识。本发明能准确描述驾驶员的纵向跟车状态下的行为特性,并高效的求解模型中的时变参数,从而准确地获得驾驶员在操纵车辆过程中的动态特性变化。可广泛应用于考虑驾驶员纵向行为的个性化辅助控制系统的研究和应用中。

    激光雷达与相机在线漂移检测方法、校正方法、装置及存储介质

    公开(公告)号:CN115272456A

    公开(公告)日:2022-11-01

    申请号:CN202210703145.2

    申请日:2022-06-21

    Applicant: 东南大学

    Abstract: 本发明公开了一种激光雷达与相机在线漂移检测方法、校正方法、装置及存储介质,在线漂移检测方法包括点云与图像配准和传感器漂移检测,点云与图像配准包括:在数据时域上搜索距离激光雷达点云数据帧最近的相机图像数据帧,完成激光雷达和相机的数据同步;基于同步的数据,通过点云配准和图像配准估计前N帧到当前帧的激光雷达运动和相机运动;传感器漂移检测包括:基于估计得到的激光雷达运动和相机运动,求解对应帧的激光雷达和相机间的运动偏差;当对应帧的激光雷达和相机间的运动偏差大于设定阈值时,检测当前帧是否发生传感器漂移。本发明方法特征提取精准、全面且鲁棒,泛化性能好,在各个方向的漂移检测和标定精度和鲁棒性良好。

    一种适用于无人方程式赛车的直线加速车道标志线检测方法

    公开(公告)号:CN111931560B

    公开(公告)日:2022-11-01

    申请号:CN202010579870.4

    申请日:2020-06-23

    Applicant: 东南大学

    Abstract: 本发明涉及一种适用于无人方程式赛车的直线加速车道标志线检测方法,主要适用于赛道的起始线和终止线检测以及直线加速赛道的车道标志线检测,将图像进行灰度化处理,采用高斯滤波器去除噪声,基于Sobel算子进行道路边缘增强,通过将图像进行二值化处理得到道路预处理图像;采用Canny边缘检测算子进行车道线边缘的提取,接着结合车道线特征建立自适应三角形感兴趣区域,将图像分为左右两部分,采用Hough变换分别拟合识别车道标志线检测出道路边界,最后输出两条车道线并叠加到原始图像中;本发明可应用于无人驾驶领域的驾驶辅助系统,减少由于驾驶员分心而造成的伤亡事故。

    一种基于激光与视觉融合的语义地图构建方法

    公开(公告)号:CN115187737A

    公开(公告)日:2022-10-14

    申请号:CN202210744160.1

    申请日:2022-06-27

    Applicant: 东南大学

    Abstract: 本发明公开了一种基于激光与视觉融合的语义地图构建方法,涉及无人驾驶SLAM技术领域,解决了无人驾驶技术中大规模闭环检测鲁棒性差和构建点云地图缺失语义信息的技术问题,其技术方案要点是利用环视摄像头模组采集周围环境的图片数据,再将图片传入到DeepLabv3+网络进行语义分割,再利用相机和激光雷达之间的投影关系,将图片中的语义信息投影到点云上构建语义点云地图,运用语义信息改进LeGO‑LOAM算法达到优化定位建图的目的,还能够利用图片数据进行运用CALC无监督学习网络进行闭环检测来优化矫正位姿,提高SLAM系统的鲁棒性。该方法所构建的地图能够实现大规模建图,语义信息丰富,有较强的鲁棒性。

    一种基于纵向安全间距模型的实时换道决策方法

    公开(公告)号:CN115140094A

    公开(公告)日:2022-10-04

    申请号:CN202210842508.0

    申请日:2022-07-18

    Applicant: 东南大学

    Abstract: 本发明公开了一种基于纵向安全间距模型的实时换道决策方法,涉及智能交通技术领域,解决了现有决策方法实时性差、时变交通环境不适用的技术问题,其技术方案要点是建立考虑与周围车辆碰撞风险以及前车突然减速行为的纵向安全间距模型;假设主车和周围车辆加速度保持不变,对主车和周围车辆的运动状态进行预测;计算预测时域内主车与当前车道前车的纵向间距,提出基于纵向安全间距模型的重规划决策方法;根据当前时刻,主车与周围车辆的位置关系、速度关系,设计势场法来选择出最优目标车道;采用样条曲线方法规划出安全轨迹,实现主车从初始车道到目标车道的安全、平稳切换,实现智能驾驶汽车在时变交通环境下的安全行驶。

Patent Agency Ranking