一种基于车路协同的智能网联汽车多模态融合检测方法

    公开(公告)号:CN116912786B

    公开(公告)日:2025-04-29

    申请号:CN202310937897.X

    申请日:2023-07-27

    Abstract: 本发明涉及一种基于V2X通信和多传感器融合的车路协同检测方法,属于智能车目标检测领域,获取车辆视角道路图像、点云数据、交通路口BEV道路图像,获取车辆视角图像中的目标检测结果;获取激光雷达点云中车辆、行人目标检测结果,并将其投影至车辆采集图像平面上;通过V2X通信技术获取交通路口BEV图像中车辆、行人目标检测结果;利用基于透视变换的权重转换方法对交通路口BEV图像进行视角转换,得到转换后的目标信息;根据转换后的目标对车辆视角下车辆、行人目标进行矫正;通过构建卷积神经网络对校正后的车辆视角目标与投影点云目标进行跨模态融合,得到精确的道路目标检测结果。

    一种斑马线检测方法
    3.
    发明授权

    公开(公告)号:CN110210451B

    公开(公告)日:2022-07-08

    申请号:CN201910511680.6

    申请日:2019-06-13

    Abstract: 本发明涉及一种斑马线检测方法,属于无人驾驶中道路环境感知技术领域。S1:采用固定安装在车顶部的摄像头实时检测斑马线,获取图像;S2:对图像进行预处理;S3:对斑马线候选区域进行逆投影变换,将图像转换为俯视图,在俯视图的基础上进行斑马线的特征提取和检测;S4:计算峰值间距离,保留距离相同的峰值;S5:确定斑马线候选区域;S6:确定斑马线候选区域后对斑马线特征点进行提取;S7:确定斑马线区域。本发明通过直方图峰值和LSD直线检测,并结合斑马线本身黑白突变点特征,可以为智能车提供复杂路段的斑马线检测,因而具有广阔的市场前景和应用价值。

    一种基于混沌理论的交通状态预测方法及其装置

    公开(公告)号:CN104978857A

    公开(公告)日:2015-10-14

    申请号:CN201510274329.1

    申请日:2015-05-26

    CPC classification number: G08G1/0133 G06N3/0418

    Abstract: 本发明公开了一种基于混沌理论的交通状态预测方法及其装置。本发明的该交通状态预测方法包括步骤:采集交通道路的数据流,得到多个交通参数的时间序列;根据所述交通参数的时间序列进行多参数相空间重构,得到多参数相空间,并在所述多参数相空间中,结合Bayes估计理论进行相点最优融合,得到对应于所述多个交通参数的融合相空间;对所述融合相空间中的时间序列进行混沌分析,当分析得出所述融合相空间的时间序列呈现混沌特性,则结合RBF神经网络对交通道路进行混沌预测。本发明的交通状态预测方法相较于传统的单参数时间序列预测方法,能够获得更好的预测效果,其预测性和精度较高。

    一种基于粒球计算及对比学习的图像标签噪声学习方法

    公开(公告)号:CN119478545A

    公开(公告)日:2025-02-18

    申请号:CN202411714645.1

    申请日:2024-11-27

    Abstract: 本发明公开了一种基于粒球计算和对比学习的图像标签噪声学习方法,包括:获取图片数据并对其进行预处理,将预处理好的图片数据输入到训练好的图像标签噪声学习模型中,得到图像分类的结果。该图像标签噪声学习网络的训练过程包括:获取图像训练数据集,对其预处理和数据增强;采用对比学习框架SimSiam分别提取强数据增强样本和弱数据增强样本的特征表示,将弱数据增强样本的特征表示输入粒球计算层,经聚类后将粒球样本的特征矩阵及其标签输入分类器得到图像分类结果p,计算分类损失;通过预测层对强数据增强样本的特征表示进行预测,以图像分类结果p为指示函数计算对比损失;通过对比损失和分类损失反向传播优化网络。本发明能够明显提升网络性能。

    一种基于激光雷达与GNSS融合的智能网联汽车定位方法

    公开(公告)号:CN117169911A

    公开(公告)日:2023-12-05

    申请号:CN202311148684.5

    申请日:2023-09-06

    Inventor: 朱浩 邱羽健

    Abstract: 本发明涉及一种基于激光雷达与GNSS融合的智能网联汽车定位方法,属于智能车定位领域,利用多传感器信息和周围的智能设备协同信息,充分发挥智能网联汽车的特性,更容易获得检测目标的经纬度定位信息;采用在定位信息、点云信息、协同信息约束下的鲁棒融合函数、多时刻信息下拟合修正函数和权重自适应函数,使得坐标变换更加准确、稳定,让检测目标的经纬度定位信息更精确。对智能车检测的目标进行绝对定位,避免由于目标相对不同智能网联汽车位置不同,各智能车对目标定位结果不一致的问题,避免智能车的目标定位结果对其他智能车无用的问题,提升了目标定位结果在智能交通中的通用性,利于智能交通系统整体调度,减少系统整体计算量。

    一种基于车路协同的智能网联汽车多模态融合检测方法

    公开(公告)号:CN116912786A

    公开(公告)日:2023-10-20

    申请号:CN202310937897.X

    申请日:2023-07-27

    Abstract: 本发明涉及一种基于V2X通信和多传感器融合的车路协同检测方法,属于智能车目标检测领域,获取车辆视角道路图像、点云数据、交通路口BEV道路图像,获取车辆视角图像中的目标检测结果;获取激光雷达点云中车辆、行人目标检测结果,并将其投影至车辆采集图像平面上;通过V2X通信技术获取交通路口BEV图像中车辆、行人目标检测结果;利用基于透视变换的权重转换方法对交通路口BEV图像进行视角转换,得到转换后的目标信息;根据转换后的目标对车辆视角下车辆、行人目标进行矫正;通过构建卷积神经网络对校正后的车辆视角目标与投影点云目标进行跨模态融合,得到精确的道路目标检测结果。

    基于V2X通信和交通标志识别的智能网联汽车协同定位方法

    公开(公告)号:CN114994694A

    公开(公告)日:2022-09-02

    申请号:CN202210587267.X

    申请日:2022-05-24

    Abstract: 本发明涉及一种基于V2X通信和交通标志识别的智能网联汽车协同定位方法,属于智能车定位领域。获取道路图像和点云数据,获取图像中的交通标志检测结果,根据交通标志特征对点云中的目标进行特征提取;根据图像检测结果及点云特征,对点云中交通标志进行分类,获取点云交通标志检测结果;利用智能网联汽车位置和车辆与交通标志间的距离,对交通标志进行定位,并融合两智能网联汽车对于交通标志的定位结果;在当前帧,利用已定位的交通标志位置和智能网联汽车位置估计待定位智能网联汽车的位置;利用基于前后帧局部约束的定位方法得到待定位智能网联汽车的位置;最后通过V2X通信技术和自适应权重融合方法融合多方定位结果。

    一种基于无人机低空视角下的图像色调修复型去雾增强方法

    公开(公告)号:CN112508814A

    公开(公告)日:2021-03-16

    申请号:CN202011437927.3

    申请日:2020-12-07

    Abstract: 本发明涉及一种基于无人机低空视角下的图像色调修复型去雾增强方法,属于图像处理技术领域。该方法中的去雾算法采用了简化的大气散射物理模型,设计多尺度特征提取网络结构,采用复合损失函数提升了网络生成图的质量;然后通过训练网络得到合适的模型权重,使用该权重下的网络模型和简化的大气散射物理模型恢复出无雾图像;接下来针对自然雾图去雾后图像色调偏低的问题,本发明采用使用相机响应模型和自适应直方图均衡化来分别对去雾后图像的全局与局部对比度进行增强;再根据增强图的特征设计增强图融合算法得到融合图像;最后引入线性拉伸得到色调修复的去雾图像。

    一种基于空地协同的车辆检测方法

    公开(公告)号:CN112488029A

    公开(公告)日:2021-03-12

    申请号:CN202011458026.2

    申请日:2020-12-10

    Abstract: 本发明涉及一种基于空地协同的车辆检测方法,属于无人驾驶技术中的道路环境感知领域。该方法包括:获取空地视角下的车辆检测结果,并构建空地视角下的目标检测点阵;对空地视角下的目标检测点阵进行配准融合一体化;最后利用前一帧的目标检测融合结果滤除当前帧目标检测融合点阵中的误检测目标点。本发明可以准确地在障碍物遮挡、相机抖动及转弯的情况下对目标车辆实现检测,提升了目标检测系统的准确率、精度和鲁棒性。

Patent Agency Ranking