-
公开(公告)号:CN107235045A
公开(公告)日:2017-10-10
申请号:CN201710512287.X
申请日:2017-06-29
Applicant: 吉林大学
CPC classification number: B60W50/08 , B60Q1/50 , B60Q2400/50 , B60W40/08 , B60W2040/0872 , B60W2050/0043 , B60W2540/22
Abstract: 本发明公开了一种考虑生理与操控信息的驾驶员路怒状态车载识别交互系统,包括生理信息监测模块、侧向操作监测模块、纵向操作监测模块、路怒状态识别模块、预警交互模块,驾驶员生理信息监测模块获得驾驶员生理信号的动态数据,侧向操作监测模块实时监测用于表征驾驶员愤怒情绪下的侧向操作指标特征,纵向操作监测模块监测用于表征驾驶员愤怒情绪下的纵向操作指标,路怒状态识别模块采用支持向量机机器学习方法构建驾驶员愤怒情绪的离线训练与在线识别模型,并将在线识别模型嵌入车载控制单元进行驾驶员愤怒情绪的在线识别。本发明在驾驶过程中实时检测驾驶人的情绪状态,适时做出预警响应,缓解驾驶员愤怒情绪并提醒周围司机。
-
公开(公告)号:CN105513391A
公开(公告)日:2016-04-20
申请号:CN201610034923.8
申请日:2016-01-19
Applicant: 吉林大学
IPC: G08G1/0962
CPC classification number: G08G1/0962
Abstract: 本发明公开了一种基于车路协同技术的车载虚拟道路状态显示系统,包括信息交互系统和车载虚拟显示系统,信息交互系统获取目标车辆自身信息、当前道路区域内的其他车辆信息和路况信息,并将获得的综合信息发送至车载虚拟显示系统;车载虚拟显示系统将综合信息作为车路协同数据发送至仿真系统,仿真系统将接收的车路协同数据进行处理整合,通过虚拟画面实时显示当前路段车辆、路况和当前道路区域内各个路段的车流信息,并针对各种紧急状况给予驾驶员相应的警告和提醒。该系统可以根据当前道路上车辆的行驶状况和路面状况的变化进行实时模拟仿真,以使驾驶员了解周围车辆和前方道路状况,提高交通拥堵控制,提高驾驶者的道路安全。
-
公开(公告)号:CN119928903A
公开(公告)日:2025-05-06
申请号:CN202510283411.4
申请日:2025-03-11
Applicant: 吉林大学
IPC: B60W50/16 , B60W30/095
Abstract: 本发明公开了一种用于车辆盲区提示的方向盘触觉反馈系统,包括:车辆状态信息采集单元,其判断本车车辆转向意图;当本车车辆具有转向意图时,采集本车车辆车速、盲区车辆车速以及盲区车辆与本车车辆的距离;触觉反馈工作模式控制单元,其通过计算本车车辆与盲区车辆之间的安全碰撞时间的长短,选择适合当前车辆工况的触觉反馈工作模式;触觉反馈动作执行机构单元,其包括伺服电机、传动机构和柔性接触区;所述伺服电机驱动所述传动机构在所述柔性接触区往复运动使方向盘发生振动;通过控制所述伺服电机的多种转速,改变所述传动机构往复运动的速度与强度,实现方向盘多级振动,为驾驶员提供多级振动触觉反馈。
-
公开(公告)号:CN119847147A
公开(公告)日:2025-04-18
申请号:CN202411961742.0
申请日:2024-12-30
Applicant: 吉林大学
IPC: G05D1/43 , G05D1/633 , G05D1/644 , G05D1/648 , G05D109/10
Abstract: 本发明涉及一种考虑感知不确定性的自动驾驶轨迹规划方法、装置及介质;方法包括构建概率化目标检测模型进行环境感知,构建障碍物缓冲区;构建基于软约束凸可行集的轨迹规划算法,生成最优规划轨迹;本发明利用多元高斯分布对行车环境中的障碍物建模,建立了概率化感知模型,对周围环境进行高精度感知和方差推断;本利用包络框属性方差信息,构建感知障碍物最大抖动区域,建立障碍物缓冲区,能够量化并传递感知不确定性,为下游模块提供了更加可靠的感知数据支持;在轨迹规划目标函数中加入松弛因子,使得在规划过程中适应感知的不确定环境,提升了规划轨迹的平顺性和车辆在不确定环境中的适应能力和行驶舒适性。
-
公开(公告)号:CN118711156A
公开(公告)日:2024-09-27
申请号:CN202410798844.9
申请日:2024-06-20
Applicant: 吉林大学
IPC: G06V20/58 , G06V10/774 , G06V10/776 , G06N5/04 , G06V10/82 , G06N3/08 , G06V10/764 , G06V10/766 , G06V10/80
Abstract: 本发明涉及一种自动驾驶汽车感知不确定性量化方法及装置;方法包括采集车辆行驶过程中的环境信息;对采集的数据标注,形成带有标签的数据集;数据集划分为训练集、测试集和验证集;构建方差推断神经网络;利用无序数据集对每个方差推断神经网络进行预训练;对每个方差推断神经网络进行训练;集成所有方差推断神经网络,构建集成网络;计算每个方差推断神经网络感知结果的不确定性指数;构建基于不确定性的结果融合策略;计算集成网络感知结果的不确定性指数;输出模型的最终感知结果;本发明提供的基于高斯误差和模型投票机制的不确定性量化指标、不确定性指数,为感知模型输出结果不确定性,提供了一种统一的数值量化方法。
-
公开(公告)号:CN118490235A
公开(公告)日:2024-08-16
申请号:CN202410355936.X
申请日:2024-03-27
Applicant: 吉林大学
IPC: A61B5/18 , A61B5/16 , A61B5/369 , A61B5/372 , A61B5/374 , A61B5/00 , G06F18/2411 , G06F18/2134 , G06F18/214 , G06F123/02
Abstract: 本发明公开了一种基于脑电信号的驾驶员时间压力评估方法,包括如下步骤:步骤一、构建基于SVM的分类器;以及在模拟交通场景下进行不同时间压力等级的驾驶试验,并在驾驶试验过程中按照采样频率采集驾驶员的脑电信号,构建分类器训练样本集;采用所述分类器训练样本集对所述分类器进行训练,得到时间压力分类器;步骤二、在车辆行驶过程中,按照采样频率实时采集驾驶员的脑电信号;步骤三、对所述脑电信号进行预处理,得到有效脑电信号;步骤四、对所述有效脑电信号进行特征提取,得到有效脑电信号的特征向量;步骤五、将所述有效脑电信号的特征向量输入所述时间压力分类器,所述时间压力分类器按照采样频率输出驾驶员的时间压力等级。
-
公开(公告)号:CN117709602B
公开(公告)日:2024-05-17
申请号:CN202410162274.4
申请日:2024-02-05
Applicant: 吉林大学
IPC: G06Q10/063 , B60W60/00 , G06Q50/40 , G06N3/0464 , G06N3/0442 , G06N3/048 , G06N3/084
Abstract: 本发明公开了一种基于社会价值取向的城市智能车辆拟人化决策方法,包括:步骤一、采集车辆的运动几帧位图;步骤二、构建CNN‑LSTM混合网络并将所述CNN‑LSTM混合网络的输出进行特征融合,将所述车辆的运动几帧位图输入所述CNN‑LSTM混合网络获得不同目标的预测SVO值,以反映其社会价值取向,包括自身利益、他人利益和合作倾向;步骤三、基于SACER建立城市工况下的智能车辆决策模型,生成预测的驾驶员行为,包括加速、减速、变道等行为,以在交通中更好地与其他车辆互动。本发明具有提高拟人性和安全性的特点。
-
公开(公告)号:CN111797810B
公开(公告)日:2022-11-29
申请号:CN202010696894.8
申请日:2020-07-20
Applicant: 吉林大学
Abstract: 本发明公开了一种行车过程中驾驶员前视预瞄区域的获取方法,包括如下步骤:步骤一、在行驶过程中同步采集驾驶员视角的前视图像及行车记录仪获取的路况图像,并获取驾驶员视角图像坐标系下的行车眼动数据;步骤二、对所述驾驶员视角图像进行图像矫正;步骤三、获得所述驾驶员视角图像坐标系下的注视点,并且计算采样周期内的修正注视点图像坐标;步骤四、对所述驾驶员视角图像和所述行车记录以获取的路况图像进行匹配,消除驾驶员视角图像的动态抖动,获取消除抖动后的修正注视点图像坐标;步骤五、将所述消除抖动后的修正注视点图像坐标投影到世界坐标系,得到驾驶员前视预瞄区域。
-
公开(公告)号:CN111797809B
公开(公告)日:2022-11-04
申请号:CN202010696893.3
申请日:2020-07-20
Applicant: 吉林大学
Abstract: 本发明公开了一种面向自动驾驶轨迹跟踪的驾驶员视觉融合方法,包括:步骤一、获取驾驶员视角的前视图像及眼动数据;步骤二、从驾驶员视角的前视图像中分离出驾驶员注视点;步骤三、将驾驶员注视点定位到固定坐标系下后,得到驾驶员有效注视点的固定坐标;步骤四、确定驾驶员有效注视点的固定坐标的正态分布特性,并且根据注视点正态分布的拟合参数确定驾驶员预瞄点;步骤五、将驾驶员预瞄点变换到地面坐标系,得到预瞄点的地面坐标;根据预瞄点的地面坐标计算预瞄点对应的前视预瞄时间,并且根据车速、预瞄点的概率密度及预瞄点对应的前视预瞄时间得到前视预瞄时间概率密度图;步骤六、根据前视预瞄时间概率密度图对预测控制驾驶员模型进行修正。
-
公开(公告)号:CN110766677B
公开(公告)日:2022-03-18
申请号:CN201911015172.5
申请日:2019-10-24
Applicant: 吉林大学
Abstract: 本发明属于机器视觉检测领域,特别是涉及一种基于机器视觉的气囊点爆过程参数与异常的自动检测方法;该方法首先设计了多台相机与气囊的空间位置关系,以保证算法可以以较高的鲁棒性对气囊点爆过程参数测量与异常检测。在气囊点爆过程开始的同时多台相机进行同步图像采集至点爆过程结束;对图像整理与分组,将分组后的图像进行气囊分割,生成气囊的Vapprox‑t曲线,划分气囊点爆过程;在气囊点爆过程的Tt1~Tt2时间段进行气囊弹出异常检测,对气囊点爆过程的Tt2~Tt3时间段对气囊空间拓扑形状进行恢复与气囊各参数测定,最终显示气囊点爆过程的参数与异常信息;本发明检测过程高效灵活,检测结果可视性良好,适用范围广,可以适用于汽车中所有位置的气囊。
-
-
-
-
-
-
-
-
-