基于模型匹配的车辆三维位姿估计方法

    公开(公告)号:CN117437445A

    公开(公告)日:2024-01-23

    申请号:CN202311296483.X

    申请日:2023-10-09

    Applicant: 安徽大学

    Inventor: 王文中 王嘉誉

    Abstract: 本发明涉及人工智能技术领域,公开了基于模型匹配的车辆三维位姿估计方法,包括如下步骤:步骤1、对3D车辆模型进行不同视角位姿获取,每个位姿对应一张图像,形成位姿图像库;步骤2、获取目标RGB图像,对RGB图像进行预处理,获得图像的法向图;步骤3、将目标的RGB图像和法向图像融合,进行车辆位姿的粗略估计,以此来排除车辆对称性造成的误导。本发明可以对场景中的车辆进行有效地位姿识别,特别是可以在没有额外参数的情况下进行位姿估计,并有效地减少由于车辆对称性导致的位姿判断错误的风险。

    一种加权交并比方法
    2.
    发明公开

    公开(公告)号:CN112613462A

    公开(公告)日:2021-04-06

    申请号:CN202011604949.4

    申请日:2020-12-29

    Applicant: 安徽大学

    Abstract: 本发明涉及到了计算机视觉领域,具体公开了一种加权交并比方法,包括步骤A1:获取真值框G坐标锚框A坐标;步骤A2:计算每个真值框G和锚框A之间的交集I;步骤A3:计算每个真值框G和锚框A之间的并集U;步骤A4:给真值框G和锚框A的每个位置赋予权重;步骤A5:计算加权交并比值。本发明通过对目标框内的每个位置赋予不同的权重,提供一种更加合理的度量两个轴向包围盒重叠程度的方法,来解决交并比相同情况下,不同位置的预测框P评测准确度相同的问题,同时本发明可用作回归损失函数进行目标检测模型训练。本发明在目标检测模型评估时作为评测标准也表现更加鲁棒。

    一种基于AMBTC的图像压缩编码方法

    公开(公告)号:CN107018419B

    公开(公告)日:2019-07-05

    申请号:CN201710280070.0

    申请日:2017-04-26

    Applicant: 安徽大学

    Abstract: 本发明公开一种基于AMBTC的图像压缩编码方法,包括编码和解码两个步骤,具体为:将原始图像以v×v大小的块为单位进行AMBTC压缩;发送方将每个块的量化值再次进行压缩编码;接收方进行解码得到AMBTC压缩图像。本发明对原始图像进行AMBTC压缩后,对其各个量化值求得预测误差,结合霍夫曼编码将预测误差进行分类编码,最终传输及存储的则为图像的预测误差编码及分区信息编码,使得图像冗余性减少,压缩比例进一步提高,同时也大大减少了图像在传输及存储的过程中所占用的资源,节省网络带宽及存储内存。

    一种基于图像分析的套牌车识别方法

    公开(公告)号:CN108898133A

    公开(公告)日:2018-11-27

    申请号:CN201810575274.1

    申请日:2018-06-06

    Abstract: 本发明公开了一种基于图像分析的套牌车识别方法,获取两张车牌号信息相同的车辆图像;提取获取的车辆图像的特征点,并对特征点进行匹配;通过匹配的特征点对车辆图像进行对齐;提取对齐后的整个车辆图像的特征向量,并比较特征向量的相似度;按照每个尺度划分的块提取块的特征,对两张车辆图像在每个尺度下相同位置的块的特征进行比对,并记录每个尺度下相同位置存在差异的块;对于不同尺度下记录的块进行融合;对融合后的块进行后处理。本发明采用特征点检测、特征点匹配以及对齐,相比现有技术,可以保证车辆图像相对应的比对区域相同,较好的保证图像输入一致性;能够极大提高相似度较高车辆的分辨准确率。

    一种监控场景中的运动目标尺度估计方法

    公开(公告)号:CN108846345A

    公开(公告)日:2018-11-20

    申请号:CN201810575278.X

    申请日:2018-06-06

    Applicant: 安徽大学

    Abstract: 本发明公开了一种监控场景中的运动目标尺度估计方法,获取某特定监控场景的少量视频;检测该视频场景中的所有目标,以行人目标为例,获得目标的包围盒;对包围盒数据进行线性拟合,获得场景中目标平均尺度的分布;利用场景中的几何特性分析目标在图像平面上移动时高度的变化规律;利用得到的平均尺度分布和高度的变化规律,得到该特定场景中目标从位置A移动到位置B的高度变化规律;获取某特定目标在该场景图像中的一个位置和对应位置的尺度;利用尺度预测模型及目标的位置和尺度,求得该目标在场景中的尺度分布。利用监控场景的几何特性对场景中目标的尺度进行分析,不依赖于目标的外观,在含有复杂挑战的监控场景下实现鲁棒的尺度自适应跟踪。

    基于语义特征点检测的车辆位姿估计方法

    公开(公告)号:CN119991810A

    公开(公告)日:2025-05-13

    申请号:CN202510175928.1

    申请日:2025-02-18

    Applicant: 安徽大学

    Inventor: 王文中 成明 汤进

    Abstract: 本发明涉及图像处理技术领域,公开了基于语义特征点检测的车辆位姿估计方法,包括以下步骤:步骤S1:构建虚拟车辆3D模型,并选取车辆模型上的点作为3D关键点;步骤S2:采集现实场景道路图片中的车辆图片,通过YOLOv8模型检测车辆图片的2D包围框,并提取2D包围框中的车辆图片;步骤S3:通过VisionTransformer技术对提取后的车辆图片的车辆进行分类。本发明能够在没有额外参数和人工标注的情况下,在复杂的实际道路场景中实现高效、精准的车辆位姿估计,适用于自动驾驶、智慧交通、增强现实等多个领域,具有广泛的前景。

    一种交通场景监控相机的标定方法、系统、装置及介质

    公开(公告)号:CN118247361A

    公开(公告)日:2024-06-25

    申请号:CN202410659426.1

    申请日:2024-05-27

    Applicant: 安徽大学

    Inventor: 王文中 许路洋

    Abstract: 本发明提供了一种交通场景监控相机的标定方法、系统、装置及介质,属于相机标定技术领域,包括:利用监控相机获取车辆的监控图像,所述监控相机的视线与车辆行进方向存在角度;使用持久独立粒子模型对监控图像中的车辆进行粒子追踪,得到车辆的粒子轨迹;将粒子轨迹的交点作为沿车辆行驶方向上的第一消失点;连续检测车辆的两个前大灯,并不断在两个前大灯之间构建连接线;将多个连接线的交点作为车辆前进方向上的第二消失点;根据第一消失点和第二消失点,计算出交通场景监控相机的焦距。该方法能够简便精确的对相机进行焦距的标定。

    一种监控场景中的运动目标尺度估计方法

    公开(公告)号:CN108846345B

    公开(公告)日:2021-09-17

    申请号:CN201810575278.X

    申请日:2018-06-06

    Applicant: 安徽大学

    Abstract: 本发明公开了一种监控场景中的运动目标尺度估计方法,获取某特定监控场景的少量视频;检测该视频场景中的所有目标,以行人目标为例,获得目标的包围盒;对包围盒数据进行线性拟合,获得场景中目标平均尺度的分布;利用场景中的几何特性分析目标在图像平面上移动时高度的变化规律;利用得到的平均尺度分布和高度的变化规律,得到该特定场景中目标从位置A移动到位置B的高度变化规律;获取某特定目标在该场景图像中的一个位置和对应位置的尺度;利用尺度预测模型及目标的位置和尺度,求得该目标在场景中的尺度分布。利用监控场景的几何特性对场景中目标的尺度进行分析,不依赖于目标的外观,在含有复杂挑战的监控场景下实现鲁棒的尺度自适应跟踪。

    基于多粒度空间注意力的车牌识别方法

    公开(公告)号:CN119992531A

    公开(公告)日:2025-05-13

    申请号:CN202510098628.8

    申请日:2025-01-22

    Applicant: 安徽大学

    Abstract: 本发明涉及图像识别技术领域,公开了一种基于多粒度空间注意力的车牌识别方法,包括如下步骤:先构建基于多粒度空间注意力的车牌识别系统;然后通过所述车牌识别系统对车牌进行识别;所述车牌识别系统包括:主干网络模块;由多层卷积网络组成,其用于特征提取,并且从输入图像中提取出多种尺度的全局特征图,以代表不同的视野域特征;多粒度空间注意力机制模块;其采用基于位置引导的空间注意力机制。本发明通过引入基于位置引导的多粒度空间注意力机制,有效克服了现有车牌识别技术在字符定位、特征提取、多布局适应性及计算效率等方面的不足,显著提升了单行、临牌与双行车牌的识别准确性和系统的整体性能。

    一种基于视频的场地占用识别方法

    公开(公告)号:CN115731496A

    公开(公告)日:2023-03-03

    申请号:CN202211488408.9

    申请日:2022-11-25

    Applicant: 安徽大学

    Abstract: 本发明涉及智能安防技术领域,公开了一种基于视频的场地占用识别方法,包括如下步骤:步骤一、在没有发生占用的情况下采集一帧图像,利用单目深度估计算法,估计场景的深度图像,得到视频图像中每一个像素对应的场景深度d0(x,y);步骤二、在系统监测过程中,对任意时刻采集的视频图像,利用单目深度估计算法,估计深度图像d。本发明提出的场地占用识别方法,可以对场景中的物体占用进行有效地识别,特别是可以有效地解决传统占用识别算法在场景外观发生改变或者被遮挡时产生的误识别问题,有效地减少误报风险;并且对占用物的类别无任何限制,可以对不固定类别的物体占用进行识别。

Patent Agency Ranking