-
公开(公告)号:CN116189145A
公开(公告)日:2023-05-30
申请号:CN202310115573.8
申请日:2023-02-15
Applicant: 清华大学
IPC: G06V20/58 , G06V10/82 , G06N3/08 , G06N3/0464
Abstract: 本发明属于自动驾驶技术领域,涉及一种线形地图要素的提取方法,包括以下步骤:将具有线形地图要素的单帧图像输入深度特征提取网络,提取深度图像特征;通过变压解码器,对所述深度图像特征与若干个查询量进行解码;通过多层感知器,根据所述解码结果,生产分支输出线形地图要素采样点坐标和分支输出线形地图要素对应类别;将线形地图要素采样点坐标和分支输出线形地图要素对应类别合并,得到所述线形地图要素的结构体。其仅使用摄像头传感器提供的单帧图像数据实现地图要素实例分割,成本低。
-
公开(公告)号:CN116110025A
公开(公告)日:2023-05-12
申请号:CN202310051371.1
申请日:2023-02-02
Applicant: 清华大学
Abstract: 本发明涉及一种栅格检测跟踪框架构建环境语义占据与速度场方法及系统,包括:通过多种车载异构传感器,由神经网络的深度学习获取环境的完全语义分割地图;在完全语义分割地图上进行栅格级跟踪,给定上游模块生成的细粒度语义鸟瞰图,对每个栅格的占据和速度进行建模,并将粒子分配到栅格中,进行粒子的更新;进行栅格级后融合,将细粒度的语义和速度信息融合,通过环境中每个栅格的语义,占据和速度的属性全面理解,形成增强的可行驶空间认知。
-
公开(公告)号:CN115965847A
公开(公告)日:2023-04-14
申请号:CN202310076916.4
申请日:2023-01-17
Applicant: 清华大学
IPC: G06V10/80 , G06V20/56 , G06V10/40 , G06V10/82 , G06V10/764 , G06N3/048 , G06N3/047 , G06N3/09 , G06N3/0464
Abstract: 本发明涉及一种交叉视角下多模态特征融合的三维目标检测方法和系统,包括以下步骤:对相机图像数据和毫米波雷达数据进行不同视角下的特征提取,并进行交叉视角转换,得到交叉视角下的特征信息;构建基于交叉视角多模态数据的融合网络,对得到的交叉视角下的特征信息进行深度融合并提取特征,同时进行目标类别及三维位置信息的回归,得到完整的三维目标检测信息。本发明充分考虑了相机图像信息在前视图视角下的空间特征以及毫米波雷达点云信息在鸟瞰图视角下的空间特征,能够适应不同传感器的空间特性进一步进行有效的融合,提高融合性能,有效提高准确率,便于进行后续算法处理。本发明可以广泛应用于智能汽车的环境感知领域。
-
公开(公告)号:CN114529719A
公开(公告)日:2022-05-24
申请号:CN202210085949.0
申请日:2022-01-25
Applicant: 清华大学
Abstract: 本发明涉及一种地面地图要素语义分割方法、系统、介质及设备,其包括:将输入的地图图像数据进行降维处理,得到预设尺寸的图像数据;将所述图像数据进行改进残差和跳跃连接处理,获取地图要素深度特征;将所述地图要素深度特征进行解码,得到每个像素归属于各个类别的概率,通过比较像素归属于每一类概率的大小,把最大概率的作为该像素类别,将原图通过网络映射为与输入的地图图像大小一一对应的类别判断结果,完成语义分割。本发明以摄像头传感器采集的单帧图像数据作为输入,通过结构简单的轻量级神经网络学习地面语义,在此基础之上得到车道线、箭头等其他类型语义的分割结果,成本低。
-
公开(公告)号:CN112862881A
公开(公告)日:2021-05-28
申请号:CN202110204006.0
申请日:2021-02-24
Applicant: 清华大学
Abstract: 本发明涉及一种基于众包多车摄像头数据的道路地图构建与融合的方法,包括内容为:S1、针对相同区域路段,从搭载相机的他车中获取原始图像序列或视频数据;S2、对每一车辆基于获取的图像信息进行道路标线提取,并在图像帧之间进行道路标线的关联,构建车辆3D本地地图;S3、对两车辆的3D本地地图进行对齐和融合;S4、对多车的3D本地地图数据融合,输出3D融合地图。本发明为众包数据更新要素提供较高的准确度,确保更新要素的准确性,避免变化要素判断不准,导致地图更新中将正确要素错误更新的情况,可以广泛应用于自动驾驶中。
-
公开(公告)号:CN119659667A
公开(公告)日:2025-03-21
申请号:CN202411713207.3
申请日:2024-11-27
Applicant: 清华大学
IPC: B60W60/00 , B60W30/095 , B60W50/00
Abstract: 本发明涉及一种自动驾驶BEV安全行驶空间构建方法,所述方法,包括:S1,获取汽车对环境的环境目标感知信息,识别汽车的可行驶边界,并根据环境目标信息进行可行驶边界上的边界式风险评估;S2,根据环境目标感知信息中的感知不确定性,对边界式风险评估的风险评估结果进行修正,得到修正后的风险评估结果;S3,根据所述感知不确定性和修正后的风险评估结果,划定自适应安全裕量,并根据自适应安全雨量,构建汽车可安全行驶的安全行驶空间。
-
公开(公告)号:CN119590450A
公开(公告)日:2025-03-11
申请号:CN202411712684.8
申请日:2024-11-27
Applicant: 清华大学
Abstract: 本发明涉及一种自动驾驶BEV边界式行驶空间预测方法,所述方法,包括:S1,根据汽车当前自动驾驶BEV视角下的边界式行驶空间的边界,利用预先构建的边界式行驶空间预测模型来预测设定时间间隔之后的预测边界,作为边界式预测结果;S2,获取当前的可视化交通场景图,输入大语言模型,输出当前的驾驶意图的大语言模型结果;S3,将边界式预测结果和大语言模型结果进行自适应融合,得到自动驾驶BEV边界式行驶空间的预测结果。
-
公开(公告)号:CN114529719B
公开(公告)日:2025-03-07
申请号:CN202210085949.0
申请日:2022-01-25
Applicant: 清华大学
IPC: G06V10/26 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/09
Abstract: 本发明涉及一种地面地图要素语义分割方法、系统、介质及设备,其包括:将输入的地图图像数据进行降维处理,得到预设尺寸的图像数据;将所述图像数据进行改进残差和跳跃连接处理,获取地图要素深度特征;将所述地图要素深度特征进行解码,得到每个像素归属于各个类别的概率,通过比较像素归属于每一类概率的大小,把最大概率的作为该像素类别,将原图通过网络映射为与输入的地图图像大小一一对应的类别判断结果,完成语义分割。本发明以摄像头传感器采集的单帧图像数据作为输入,通过结构简单的轻量级神经网络学习地面语义,在此基础之上得到车道线、箭头等其他类型语义的分割结果,成本低。
-
公开(公告)号:CN114494435B
公开(公告)日:2025-03-07
申请号:CN202210085360.0
申请日:2022-01-25
Applicant: 清华大学
IPC: G06T7/73 , G06N3/0464 , G01S19/45 , G01C21/30
Abstract: 本发明涉及一种视觉与高精地图匹配定位的快速优化方法、系统及介质,其包括:实时获取单目图像信息及GNSS信号;将所述单目图像信息进行感知处理后,得到图像感知的地图元素结果;根据所述GNSS信号得到地图中车辆周围的地图定位元素;将所述地图元素结果和所述车辆周围的地图定位元素进行地图匹配计算,得到全局六自由度位姿,作为地图匹配定位的优化结果。本发明对智能网联汽车的应用场景,能够降低定位计算复杂度,适配算力更低的计算平台。
-
公开(公告)号:CN117994775A
公开(公告)日:2024-05-07
申请号:CN202410112062.5
申请日:2024-01-26
Applicant: 清华大学
IPC: G06V20/64 , G06V20/56 , G06V10/82 , G06N3/0455 , G06N3/0499 , G01S17/66 , G01S7/48
Abstract: 本发明涉及一种基于稀疏注意力机制的多目标跟踪方法、系统及存储介质,其包括:将多帧激光点云数据进行三维目标检测分别得到当前时刻目标检测结果和历史时刻目标检测结果,并分别进行目标特征编码,得到当前时刻目标特征和历史时刻目标特征;构建当前时刻目标特征与历史时刻目标特征之间的注意力矩阵,计算得到当前时刻目标与历史时刻目标之间的注意力掩膜,通过注意力掩膜得到当前时刻目标与历史所有时刻全局目标之间的稀疏注意力矩阵;根据稀疏注意力矩阵对历史时刻所有目标特征进行加权处理后,得到状态估计结果;并在历史帧所处的不同时刻,根据稀疏注意力矩阵得到历史所有时刻的关联结果,将历史所有时刻的关联结果作为最终的关联匹配结果。
-
-
-
-
-
-
-
-
-