-
公开(公告)号:CN117727012A
公开(公告)日:2024-03-19
申请号:CN202311812786.2
申请日:2023-12-27
Applicant: 桂林电子科技大学 , 南宁桂电电子科技研究院有限公司
IPC: G06V20/58 , G06V10/25 , G06V10/764 , G06V10/766 , G06V10/82 , G06V10/40 , G06V10/80 , G06N3/045 , G06N3/0464 , G06N3/084
Abstract: 本发明涉及智能驾驶目标识别领域,尤其涉及一种车辆行人识别方法、装置、设备及存储介质,该方法包括:获取车辆与行人样本数据集;通过所述车辆与行人样本数据集对预设检测模型进行训练,得到目标检测模型;获取车辆与行人样本图片,将所述当前车辆与行人样本图片输入至所述目标检测模型,并获取所述目标检测模型基于所述当前路况数据输出的车辆、行人识别结果,从而建立GBD‑YOLO目标检测模型,并对其进行训练,输入当前车辆、行人样本数据集,得到识别结果,从而提高对车辆、行人识别的准确性。
-
公开(公告)号:CN117423084A
公开(公告)日:2024-01-19
申请号:CN202311449349.9
申请日:2023-11-02
Applicant: 桂林电子科技大学 , 南宁桂电电子科技研究院有限公司
IPC: G06V20/56 , G06V10/25 , G06V10/80 , G06V10/82 , G06N3/0464 , G06N3/0895
Abstract: 本发明提供一种基于自监督的多源传感器融合的多目标跟踪方法,涉及自动驾驶领域:主要组成部分由融合阶段和跟踪阶段,融合阶段包括生成获取不同传感器数据,构建传感器融合框架,构建跟踪模型,设计联合损失函数以及训练模型,在跟踪阶段,主要将测试2D视频序列和3D点云数据输入到训练后的模型中,通过自监督学习得到待测时刻的搜索响应,响应中最大值的位置表示跟踪目标所在位置,并结合所对应的尺度得到最终预测的跟踪框,从而完成该时刻目标的跟踪。本发明不仅能让模型进行自监督训练,还能让模型学到不同数据增强下搜索响应的一致性,从而学到更加鲁棒的自监督表征并显著提高跟踪性能。
-
公开(公告)号:CN118837889A
公开(公告)日:2024-10-25
申请号:CN202410820852.9
申请日:2024-06-24
Applicant: 华中科技大学 , 东风柳州汽车有限公司 , 桂林电子科技大学
IPC: G01S13/931 , G01S13/42 , G01S13/58 , G01S13/62 , G01S13/86 , G01C3/00 , G06V20/56 , G06V10/25 , G06V10/75 , G06V10/80
Abstract: 本申请公开了一种目标检测方法、装置、设备和存储介质,涉及智能驾驶技术领域,所述目标检测方法包括:获取雷达数据和摄像头数据;将所述雷达数据与所述摄像头数据进行时空同步,得到同步后的雷达数据和摄像头数据;将同步后的所述雷达数据和所述摄像头数据进行目标匹配,得到匹配目标信息和不匹配目标信息;将所述匹配目标信息融合,得到第一融合目标信息;通过全局最近邻规则对所述不匹配目标信息进行处理,得到第二融合目标信息;将所述第一融合目标信息和所述第二融合目标信息输出,完成目标检测。本申请通过这一系统化的多传感器数据融合过程,能够更准确和全面地检测和跟踪环境中的所有目标,实现了精准的目标检测。
-
公开(公告)号:CN116755081A
公开(公告)日:2023-09-15
申请号:CN202310602524.7
申请日:2023-05-25
Applicant: 东风柳州汽车有限公司 , 桂林电子科技大学 , 清华大学
Abstract: 本发明属于图像处理技术领域,公开了一种视觉与雷达融合的目标检测技术。本发明通过获取毫米雷达波信息中的目标信息与摄像头所拍摄的视觉信息,根据所述目标信息生成雷达感兴趣区域,根据所述视觉信息生成视觉感兴趣区域,将所述雷达感兴趣区域与所述视觉感兴趣区域融合,得到所述雷达感兴趣区域与所述视觉感兴趣区域的交并比,在所述交并比大于预设阈值时,将所述雷达感兴趣区域与所述视觉感兴趣区域内目标相关属性进行输出。本发明通过将计算机视觉生成的感知区域与毫米波雷达生成的感知区域共同对目标进行检测,根据两个感兴趣区域的交并比,确定检测目标,相对现有技术在毫米波雷达生成的感兴趣区域进行视觉检测,本发明能更准确地检测目标。
-
-
-