基于视线方向对比学习的驾驶员分心行为检测方法

    公开(公告)号:CN116092058A

    公开(公告)日:2023-05-09

    申请号:CN202211357758.1

    申请日:2022-11-01

    Abstract: 本发明公开了一种基于视线方向对比学习的分心驾驶行为检测方法。本发明设计卷积神经网络估计驾驶员头部的凝视点坐标,根据凝视点坐标来计算视线方向。考虑驾驶场景中的感兴趣目标位置,来找出视线方向中的感兴趣目标,并修正视线方向。本发明通过挖掘容易混淆的驾驶状态视频帧,并利用对比学习,来准确辨别易混淆的驾驶状态。对比学习考虑,使易混淆安全视频帧特征接近易识别安全视频帧特征,同时远离易识别分心视频帧特征,从而有效的分离易混淆的分心视频帧和安全视频帧。本发明估计的视线方向指向明确的感兴趣目标,同时,使用对比学习,能够有效实现容易混淆的视线方向情况下的分心行为检测。

    一种面向边缘设备的遮挡行人闯红灯姿态识别方法

    公开(公告)号:CN113537136B

    公开(公告)日:2024-09-27

    申请号:CN202110876540.6

    申请日:2021-07-30

    Abstract: 本发明公开了一种面向边缘设备的遮挡行人闯红灯姿态识别方法,本发明通过获取红灯亮起时的斑马线处监控行人图片,实现行人姿态关节点检测和闯红灯姿态识别两个任务。本发明通过学习构建姿态空间关系矩阵,实现对遮挡关节点特征的空间关系传播,修正错误的关节点定位。面向边缘设备计算能力有限的问题,本发明使用蒸馏学习思想,分布设计教师网络和学生网络,并设计了学生网络损失函数,来获得轻量级的姿态关节点定位的学生网络。最后针对闯红灯姿态识别任务,构建卷积神经网络,实现闯红灯和非闯红灯的状态识别。本发明具有场景适用能力强,关节点定位准确性高,轻量级网络,处理速度快,便于移植等优势,可有效实现行人闯红灯行为识别。

    基于局部-全局面部关键点关系的疲劳驾驶姿态识别方法

    公开(公告)号:CN118038421A

    公开(公告)日:2024-05-14

    申请号:CN202410349629.0

    申请日:2024-03-26

    Abstract: 本发明公开了一种基于局部‑全局面部关键点关系的疲劳驾驶姿态识别方法,本发明将面部关键点分成左眼睛、右眼睛、嘴巴、下巴局部分组,学习基于位置的局部关键点关系,进一步将面部姿态划分为多个视角,学习多视角的全局关键点关系,多视角的局部关键点关系。本发明构建多视角局部‑全局Transformer,通过使用上述的面部关键点关系,用于识别疲劳驾驶姿态;本发明通过收集驾驶员的驾驶姿态数据集,运用关键点间局部与全局的空间关系,结合Transformer模型检测关键点热图,从而提高检测的准确性,能够避免局部疲劳状态和局部正常状态的错误判断,具有实际应用价值。

    一种目标动态卷积核的高空抛物跟踪方法

    公开(公告)号:CN117274307A

    公开(公告)日:2023-12-22

    申请号:CN202311216082.9

    申请日:2023-09-20

    Abstract: 本发明公开了一种目标动态卷积核的高空抛物跟踪方法。本发明关注于随着目标类别变化的动态卷积核学习。本发明将目标中心点视为Key特征,将目标中心点附近的像素视为Query特征,利用Key和Query匹配的方法来学习附近的像素的权重。本发明通过依次匹配目标中心点附近的像素,来提取动态卷积核中每个位置上的权重。为了抑制干扰目标和困难目标对目标跟踪的影响,本发明在跟踪目标类之外,添加干扰目标类和困难目标类的动态卷积核学习过程,设计融合多目标类别的动态卷积核目标检测网络。在测试视频的高空抛物跟踪过程中,本发明使用多目标动态卷积核的目标检测模型,能有效抑制干扰信息和困难信息,从而提高高空抛物跟踪的准确性。

    一种面向边缘设备的遮挡行人闯红灯姿态识别方法

    公开(公告)号:CN113537136A

    公开(公告)日:2021-10-22

    申请号:CN202110876540.6

    申请日:2021-07-30

    Abstract: 本发明公开了一种面向边缘设备的遮挡行人闯红灯姿态识别方法,本发明通过获取红灯亮起时的斑马线处监控行人图片,实现行人姿态关节点检测和闯红灯姿态识别两个任务。本发明通过学习构建姿态空间关系矩阵,实现对遮挡关节点特征的空间关系传播,修正错误的关节点定位。面向边缘设备计算能力有限的问题,本发明使用蒸馏学习思想,分布设计教师网络和学生网络,并设计了学生网络损失函数,来获得轻量级的姿态关节点定位的学生网络。最后针对闯红灯姿态识别任务,构建卷积神经网络,实现闯红灯和非闯红灯的状态识别。本发明具有场景适用能力强,关节点定位准确性高,轻量级网络,处理速度快,便于移植等优势,可有效实现行人闯红灯行为识别。

    一种基于匹配误差抑制的成像坐标校正方法

    公开(公告)号:CN108053370A

    公开(公告)日:2018-05-18

    申请号:CN201711223610.8

    申请日:2017-11-29

    Abstract: 本发明公开了一种基于匹配误差抑制的成像坐标校正方法,手工标记测量图像背景区域,获取其匹配点对。并基于匹配点对利用迭代误差法建模几何校正映射矩阵,提高了实验结果的精度。据此,利用欧式距离及阈值,检测并抑制噪声匹配点。再次利用迭代误差拟合求解新的映射矩阵,并对参考图像进行校正。将测量图像与边缘二值掩膜融合,获取足部坐标。再将测量图像边缘与几何校正后的参考图像进行融合,根据足部点误差,水平平移获得足部对齐的参考图像。本发明具有直观有效,鲁棒性强,场景适应度高等优点,不仅能够解决成像坐标在对齐标定中受到背景信息、复杂结构混杂信息、足部近邻结构信息的干扰,而且也能够解决多幅参考图像拟合结果的不一致性。

    基于场景深度映射的道路目标深度估计方法

    公开(公告)号:CN106204572B

    公开(公告)日:2020-12-04

    申请号:CN201610528752.4

    申请日:2016-07-06

    Abstract: 本发明公开了一种基于场景深度映射的道路目标深度估计方法,通过获取场景深度映射关系和目标定位两个要素,实现场景目标深度估计。在场景边缘检测和直线检测基础上,针对消失点和消失线定位不确定问题,使用最大期望算法,精确估计中心消失点和中心视野消失线;并利用摄像机模型,完成场景的深度映射关系构建。针对场景目标定位不准确问题,在场景分割基础上,采用Adaboost分类器训练并识别分割区域的类别标记;分析垂直目标的地面接触线,查找深度映射关系表,获得场景目标深度估计。

Patent Agency Ranking