-
公开(公告)号:CN108964969B
公开(公告)日:2021-12-07
申请号:CN201810427997.7
申请日:2018-05-07
Abstract: 本发明实施例提供了一种混合神经网络和AR模型的高速铁路信号系统流量预测方法。该方法包括:给定需要进行流量预测的高速铁路信号系统子系统及其历史流量信息,首先将历史流量信息作为时序数据,其次将时序数据yt视为线性自相关结构Lt与非线性结构Nt两部分组成,然后用AR模型对时序数据yt进行预测,记其预测结果为时序数据与AR模型预测结果的残差为et,然后用BP神经网络模型对残差序列{et}进行预测,记预测结果为最后使用AR模型与BP神经网络模型进行组合预测得到预测结果。本发明可以有效地对流量时序数据进行预测,并提高预测的精确度。
-
公开(公告)号:CN113298113A
公开(公告)日:2021-08-24
申请号:CN202110365615.4
申请日:2021-04-06
Applicant: 北京交通大学
IPC: G06K9/62 , G06K9/00 , G06F16/215 , G06Q10/04
Abstract: 本发明公开了一种基于列车车载卫星定位定位观测的轨道沿线环境分类方法,包括1.将铁路场景分为5类,构建每种铁路场景的特征向量,组成遮挡场景特征模型库;2.采集多模卫星定位接收机输出的观测数据,以历元为单位进行存储,得到观测数据集;3.对观测数据集进行数据清洗,得到清洗后的观测数据集;4.构建对应场景区段下的关键参数集合;5.构建场景区段特征向量;6.利用DTW算法将场景区段特征向量与模型库中的特征向量进行匹配,确定铁路全线场景分布情况。本发明不需要开展专门的列车运行环境场景采集。列车运行的随机性不影响数据采集过程和结果。5类场景间差异大,列车运行过程中卫星定位接收机采集的数据均能落入5类场景中。
-
公开(公告)号:CN113204042A
公开(公告)日:2021-08-03
申请号:CN202110557436.0
申请日:2021-05-21
Applicant: 北京交通大学
Abstract: 本发明提供了一种基于精密单点定位的多星座联合列车定位方法。该方法包括:从列车上的GNSS接收机中获取卫星原始观测数据文件,得到卫星观测值,包括伪距、载波相位和伪距率;根据IGS发布的实时超快速精密星历中的数据插值计算得到所需卫星历元数据,该历元数据包括卫星位置和钟差;对卫星观测值进行电离层延迟、对流层延迟和相对论效应误差补偿,对卫星历元数据进行地球自转误差校正和卫星天线相位中心校正;将每个历元误差补偿后的组合观测值和卫星历元数据到输入多星座条件下的列车精密单点定位模型,通过卡尔曼滤波算法求解模型,得到列车位置信息。本发明由多星座条件下的精密单点定位方法获取列车运行位置,可用于列车轨迹实时和后处理分析。
-
公开(公告)号:CN113060188A
公开(公告)日:2021-07-02
申请号:CN202110390559.X
申请日:2021-04-12
Applicant: 北京交通大学
Abstract: 本发明提供了一种高速列车编队在途追踪运行协同优化方法。包括:列车在途运行时,计算状态偏离参数;判断实际列车运行状态与列车计划运行状态的偏离程度,确定列车运行状态;列车按计划运行状态下;基于常态运行调整参数,建立列车常态运行调整策略,进行编队列车群在途追踪运行协同优化,确定列车速度控制曲线;列车运行受到编队内外因素的干扰,导致列车延误及延误传播,偏离列车运行计划;进行编队列车群在途追踪运行协同调整,消解干扰影响,重新规划编队列车群在运行区间的剩余区段进行在途追踪运行时的控制策略。本发明能够实时监测列车运行状态并对编队列车群进行在途运行协同优化与调整。
-
公开(公告)号:CN112784406A
公开(公告)日:2021-05-11
申请号:CN202110014051.X
申请日:2021-01-06
Applicant: 北京交通大学
IPC: G06F30/20 , G06Q10/04 , G06Q10/06 , G06Q50/30 , G06F111/06
Abstract: 本发明提供了一种基于移动闭塞时空占用带模型的列车追踪运行优化方法。该方法包括:在列车出发前,建立移动闭塞时空占用带模型;根据移动闭塞时空占用带模型与列车区间运行速度‑距离曲线之间的关系,获取列车区间运行过程的关键速度:出站咽喉速度、站间巡航速度、惰行末速度和进站咽喉速度;根据所述列车区间运行过程的关键速度建立列车追踪运行的移动闭塞时空占用带模型,获取列车追踪运行的最佳运行线;根据列车追踪运行的最佳运行线控制列车运行。本发明的方法采用移动闭塞时空占用带模型,可以最大限度利用轨道资源,提升线路运能;可用于列车运行控制系统,指导移动闭塞模式下高速列车安全、高效、节能追踪运行。
-
公开(公告)号:CN111224710B
公开(公告)日:2021-05-04
申请号:CN202010022929.X
申请日:2020-01-09
Applicant: 北京交通大学
Abstract: 本发明提供了一种基于卫星空间分布检验的虚拟应答器捕获方法及捕获系统,所述虚拟应答器捕获方法首先建立虚拟应答器基础数据库,再根据卫星导航获取列车当前的位置及运行状态,根据基础数据库预测待捕获目标虚拟应答器及预捕获触发时刻;再自预捕获触发时刻,实时计算可视卫星空间分布特征值及预测值,同时根据基础数据库估计卫星空间分布参考值,再根据卫星空间分布特征值、特征值预测值与参考值,判断待捕获目标虚拟应答器捕获状态,确定捕获时刻、校正列车当前位置及更新虚拟应答器基础数据库。本发明克服了从定位域入手实施捕获空间分析的局限性,提高了虚拟应答器捕获精度和实时性,能够有效支持新型列车控制系统的设计、研制与装备制造。
-
公开(公告)号:CN108322698B
公开(公告)日:2020-09-22
申请号:CN201711458780.4
申请日:2017-12-28
Applicant: 北京交通大学
Abstract: 本发明实施例提供了一种基于多摄像机和惯性测量单元融合的系统和方法,该系统包括:置于运动载体上的摄像机、惯性测量单元、信息处理单元和支架;信息处理单元分别与多个摄像机和惯性测量单元连接,接收摄像机采集的全景图像和惯性测量单元获取的IMU数据后进行融合,得到运动载体对应角度下的3D建模、360°全景3D模型、运动参数和运动估计参数,将360°全景3D模型进行重建得到3D重建结果,对3D重建结果分割得到环境背景3D点和运动目标3D点,并通过优化环境背景3D点和对运动目标3D点的计算,实现静态背景的全景建模和运动目标的检测与跟踪。本发明能极大提高对静态环境的建模精度,实现对运动目标的检测与跟踪,提高了运动载体对环境感知能力和感知水平。
-
公开(公告)号:CN111098852A
公开(公告)日:2020-05-05
申请号:CN201911211533.3
申请日:2019-12-02
Applicant: 北京交通大学
Abstract: 传统规划需要大量迭代,计算量较大,时间长;而智能规划算法随着数据量的增大,复杂度越来越大。本申请提供了一种基于强化学习的泊车路径规划方法,包括1:建立车位环境的状态模型;2:建立车辆的单线模型;3:定义状态奖励值函数和动作值函数,得到状态和行为函数的贝尔曼方程;4:确定贝尔曼方程中的奖励函数;5:结合奖励确定从某一个当前状态到目标状态的方程;6:结合深度Q学习网络,输出所有动作的Q值向量;7:确定起始状态到目标状态的最优路径;8:生成路径曲线,发送到车辆的跟踪控制模块中,提供路径数据。能快速获得泊车路径,实现方法简单高效,同时能保证路径跟踪控制连续性好的效果。
-
公开(公告)号:CN110930811A
公开(公告)日:2020-03-27
申请号:CN201911093164.2
申请日:2019-11-11
Applicant: 北京交通大学
IPC: G09B9/05
Abstract: 本申请属于人工智能技术领域,特别是涉及一种适用于无人驾驶决策学习和训练的系统。由于现有的方法都是设计好算法框架,利用大数据进行训练,或按照制定好的一套规则进行训练/验证,效率低、成本较高。本申请提供了一种适用于无人驾驶决策学习和训练的系统,所述系统包括虚拟现实/机器学习单元;所述虚拟现实/机器学习单元包括主处理器模块,所述主处理器模块与虚拟现实呈现模块相连接,所述主处理器模块与车辆操纵机电模块相连接,所述车辆操纵机电模块与方向盘相连接,所述车辆操纵机电模块与档位相连接,所述车辆操纵机电模块与油门/刹车相连接。解决了无人驾驶技术中如何快速训练算法,提升车辆驾驶能力,尤其是人工智能的学习。
-
公开(公告)号:CN110646821A
公开(公告)日:2020-01-03
申请号:CN201910918263.3
申请日:2019-09-26
Applicant: 北京交通大学
Abstract: 本发明提供了一种基于移动基线解算的列车完整性检测方法。该方法包括:采用双差载波相位的方法消除掉卫星和接收机的时钟误差,以及与传播路径相关的电离层和对流层延迟误差,并用卡尔曼滤波估计列首列尾两天线之间的相对位置坐标,进而得到列首列尾两天线之间基线的长度;然后将解算的基线长度与预先给定的参考基线长度比较,判断二者的差值是否在阈值范围内。如果在阈值范围内,则代表列车的完整性状态正常,反之,则表明列车的完整性状态异常,可能存在脱钩情况。本发明基于解算的移动基线长度,并将其与参考长度比较,进而得到列车实时的完整性状态信息,具有连续性好、可靠性高的特点,能够有效降低列车完整性误警及漏警的概率。
-
-
-
-
-
-
-
-
-