-
公开(公告)号:CN109255803B
公开(公告)日:2022-04-12
申请号:CN201810972565.4
申请日:2018-08-24
Applicant: 长安大学
Abstract: 本发明公开了一种基于位移试探的运动目标的位移计算方法,通过选取运动目标三维表面上有效点,沿运动目标行驶方向在三维空间中进行位移试探,试探完成后把新的三维空间点通过映射矩阵转换到二维图像上形成新的图像点;通过新的图像点和当前帧图像生成一幅新的中间图像,并把中间图和上一帧图像之间的灰度差值作为匹配的评价标准;在试探一定距离之后,选择其中匹配代价最优的试探距离作为运动目标的位移;本发明提供的位移计算方法具有较高的精度和稳定性,是一种确实可行的位移计算方法。
-
公开(公告)号:CN112037159A
公开(公告)日:2020-12-04
申请号:CN202010742528.1
申请日:2020-07-29
Applicant: 长安大学
Inventor: 王伟 , 唐心瑶 , 宋焕生 , 穆勃辰 , 李聪亮 , 梁浩翔 , 张文涛 , 雷琪 , 刘莅辰 , 戴喆 , 云旭 , 侯景严 , 贾金明 , 赵锋 , 余宵雨 , 靳静玺 , 王滢暄 , 崔子晨 , 赵春辉
Abstract: 本发明公开了一种跨相机道路空间融合及车辆目标检测跟踪方法及系统,该方法进行两个交通场景的背景图像提取及场景标定,获得标定参数;分别划分场景拼接区域,设置长度、宽度方向像素距离比参数组,生成空白空间融合图像;将分场景中像素取出放入空白空间融合图像中,获得带有空间信息的融合图像;利用针对车辆数据集训练的深度神经网络Yolov3,在连续的图像序列中,对车辆目标进行检测获得二维包络模型参数,结合空间融合信息,完成跨相机车辆目标检测跟踪。本发明可适应包含公共区域的连续道路交通场景,利用摄像机标定完成跨相机道路空间融合,并结合深度神经网络提取场景中大量车辆目标完成跨相机车辆目标检测跟踪,实现简单且具有较高的通用性。
-
公开(公告)号:CN110472496A
公开(公告)日:2019-11-19
申请号:CN201910609164.7
申请日:2019-07-08
Applicant: 长安大学
IPC: G06K9/00
Abstract: 本发明公开了一种基于目标检测与跟踪的交通视频智能分析方法,具体包括利用监控摄像机采集的高速公路视频,利用深度学习方法进行车辆目标检测,根据检测结果,使用多目标跟踪方法获取目标轨迹,智能分析目标轨迹,获取车流量、车辆速度并检测交通拥堵、停车的交通异常事件,完成交通视频的智能分析。该方法能够对车辆进行视野范围内的长时间检测与跟踪,从而准确地获取交通参数、检测交通事件。本发明的方法在多种交通场景中使用都具有较高的稳定性,具有一定的实用价值与广阔的市场潜力。
-
公开(公告)号:CN106570883B
公开(公告)日:2019-10-22
申请号:CN201610937588.2
申请日:2016-10-25
Applicant: 长安大学
Inventor: 宋焕生 , 孙士杰 , 刘瑞芝 , 张文涛 , 张朝阳 , 崔华 , 李钢 , 李怀宇 , 张向清 , 李莹 , 陈艳 , 王璇 , 杨燕妮 , 孟乔 , 潘强 , 李婵 , 孙亚
Abstract: 本发明通过在通道中架设RGB‑D相机,用相机对包含人体目标的通道进行拍摄,获取多幅深度图,并得到深度图对应的俯视图,根据俯视图形成矩形框集合,利用矩形框集合形成轨迹,通过对轨迹的跟踪以及判断,统计通道内的人数。本发明的方法能够精确的锁定人头及统计人数。
-
公开(公告)号:CN109697420A
公开(公告)日:2019-04-30
申请号:CN201811541565.5
申请日:2018-12-17
Applicant: 长安大学
Abstract: 本发明属于智能交通领域,具体涉及一种面向城市交通的移动目标检测及跟踪方法,通过在城市道路及交叉口处架设相机,用相机对包含机动车、非机动车和行人目标的交通场景进行拍摄,获取视频数据,并利用视频数据的图像特征,基于目标检测提出一种模型匹配算法并将这种算法和KCF算法进行结合得到了一种多目标跟踪算法,采用所得到的多目标跟踪算法获取目标运动轨迹并对目标的完整轨迹进行储存,达到对视频范围内的目标进行自动检测、分类及持续跟踪,获得目标的移动轨迹信息的目的。本发明方法能够利用连续的图像精确的获得不同目标的类型及其移动轨迹信息。
-
公开(公告)号:CN109325963A
公开(公告)日:2019-02-12
申请号:CN201810891823.6
申请日:2018-08-07
Applicant: 长安大学
Abstract: 本发明公开了一种基于SVM的公交乘客三维轨迹分类方法,包括以下步骤:利用深度相机获取公交车的上、下车图像,并提取所述图像的前景图像;分别建立相机坐标系和世界坐标系,通过相机标定,获得所述前景图像中像素坐标与世界坐标的转换关系,然后将所述的前景图像转换为世界坐标系下的俯视投影图;针对所述的俯视投影图,首先对俯视投影图进行块化,然后确定局部高度值最大的区域,最后对该区域进行扩展以锁定人头目标,获取人头目标的三维轨迹,然后提取三维轨迹的特征,训练SVM分类器,实现轨迹的分类。本发明方法能够对疑似目标的三维轨迹进行分类,实现对上、下车乘客的计数,并且识别精度高。
-
公开(公告)号:CN106600643A
公开(公告)日:2017-04-26
申请号:CN201610938572.3
申请日:2016-10-25
Applicant: 长安大学
CPC classification number: G06T2207/10004 , G06T2207/30242
Abstract: 本发明为一种基于轨迹分析的人数统计方法,通过双目相机或RGBD相机获得场景的深度图,对相机进行标定,使用标定后的相机参数将深度图转化为三维点云,将三维点云投影至X‑Y平面,得到场景的俯视图,利用本发明提出的人头锁定方法对俯视图内的人头目标进行锁定,通过训练的分类器(Adaboost、SVM、Bayies等)对轨迹进行进入和出去的判断。本发明用于统计场景内(公交车、扶梯、通道口等)的来往行人,精确的得到进入和出去的人数。
-
公开(公告)号:CN106228560A
公开(公告)日:2016-12-14
申请号:CN201610607201.7
申请日:2016-07-28
Applicant: 长安大学
CPC classification number: G06K9/6267 , G06K9/38 , G06T2207/30196 , G06T2207/30242
Abstract: 本发明公开了一种复杂场景下的人数统计方法,使用双目相机(或者RGBD相机)通过相机标定,对场景信息进行三维点云恢复,然后生成场景俯视图,通过设计的人头锁定算法对场景的人头进行锁定,对锁定目标提取出13种属性,训练出SVM分类器,利用分类器,对锁定目标进行识别,从而得出场景内的人数。由于俯视图保留了大部分的空间信息,同时消除了空间中人头的畸变,所以,本锁定算法可以有效锁定人头,且在各种场景下都具有很强的适应性,由于人头在俯视图下稳定的特点,本方法可以有效的利用训练的分类器,去除场景中的伪目标,可以实时地、精确地对场景内的人数信息进行统计。
-
-
公开(公告)号:CN111476798A
公开(公告)日:2020-07-31
申请号:CN202010199138.4
申请日:2020-03-20
Applicant: 长安大学
Inventor: 王伟 , 唐心瑶 , 宋焕生 , 张朝阳 , 梁浩翔 , 张文涛 , 戴喆 , 云旭 , 侯景严 , 刘莅辰 , 贾金明 , 李俊彦 , 武非凡 , 雷琪 , 杨露 , 余宵雨 , 靳静玺 , 王滢暄 , 赵锋 , 穆勃辰 , 李聪亮
IPC: G06T7/11 , G06T7/64 , G06T7/80 , G06T17/00 , G06K9/00 , G06K9/46 , G06N3/00 , G06N3/04 , G06N3/08
Abstract: 本发明公开了一种基于轮廓约束的车辆空间形态识别方法及系统,在连续的图像序列中,使用深度学习Mask RCNN的方法识别车辆目标,获取车辆目标在图像坐标系下的二维包络框和分割图像信息;对车辆的分割图像求取轮廓,获取每个车辆目标的轮廓点集合,对轮廓点集合求取轮廓重心点;然后根据二维包络框模型的坐标信息,结合相机标定的结果和地平线信息,求取每个车辆目标在三维包络框模型下的凸包,构建针对特定车辆目标的轮廓约束,从而求解出车辆目标的空间形态信息。本发明可适应不同的道路交通场景,利用摄像机提取场景中大量车辆目标完成空间形态识别的过程。本发明能应用于各种道路场景下的车辆空间形态识别,结果准确,实现简单,通用性好。
-
-
-
-
-
-
-
-
-