一种基于改进YOLOv5的交通标志检测方法

    公开(公告)号:CN115116032B

    公开(公告)日:2025-01-14

    申请号:CN202210681167.3

    申请日:2022-06-15

    Abstract: 本发明公开一种基于改进YOLOv5的交通标志检测方法,基于YOLOv5神经网络、以及包含标签的交通图像的交通标志数据集。在YOLOv5神经网络的主干部分添加特征增强FEM模块和区域上下文模块,在输出端部分之后增加CIoU‑NMS模块,依次顺序连接改进YOLOv5神经网络主干部分、颈部、改进YOLOv5神经网络输出部分,构建并训练以交通标志样本图像为输入、交通标志样本图像所对应的真值标签为输出改进YOLOv5的交通标志检测模型。应用交通标志检测模型,获得目标交通标志图像对应的标签。本发明提出了新的区域上下文模块和特征增强模块,用在YOLOv5检测算法中,交通标志检测性能有所提升。

    一种非对称调制融合特征的小目标检测方法

    公开(公告)号:CN117132856A

    公开(公告)日:2023-11-28

    申请号:CN202310948977.5

    申请日:2023-07-31

    Abstract: 本发明公开了一种非对称调制融合特征的小目标检测方法,具体为:1:提取输入图像的四张特征图:特征图1,特征图2,特征图3和特征图4;2:将特征图1输入至第一空间注意力网络,将特征图3输入至第一信道注意力网络;将两个注意力网络输出的特征图通过元素加法进行融合,得到融合特征图1;将特征图2输入至第二空间注意力网络,将特征图4输入至第二信道注意力网络;将两个注意力网络输出的特征图通过元素加法进行融合,得到融合特征图2;3:采用RPN网络提取融合特征图的感兴趣区域;4:对感兴趣区域进行扩增;5:将扩增后的感兴趣区域送入分类网络,将原始的感兴趣区域送入回归网络;本发明提高了分类和回归的准确性。

    一种基于特征多尺度融合的交通标志检测算法

    公开(公告)号:CN116503838A

    公开(公告)日:2023-07-28

    申请号:CN202310468851.8

    申请日:2023-04-26

    Inventor: 胡昭华 王莹

    Abstract: 本发明公开一种基于特征多尺度融合的交通标志检测算法,基于YOLOv5神经网络,对其中的颈部特征层和输出端进行改进,并将颈部特征层的深层特征与主干特征层的浅层特征进行多尺度融合;以交通标志样本图像、样本图像对应各环境因素为输入、交通标志样本图像所对应位置框位置信息标签和分类信息标签为输出,构建改进YOLOv5网络的待训练交通标志检测模型,通过包括用于衡量位置框信息划分准确度的损失函数,以及用于衡量分类信息识别精度的模型评价,待损失函数和模型评价均达到预定目标值后,获得交通标志检测模型。本发明提出了新的多尺度融合方式改进,并用在YOLOv5检测算法中,较原算法,交通标志检测性能有所提升。

    一种基于孪生网络的多预测输出对齐的目标跟踪方法及装置

    公开(公告)号:CN115937249A

    公开(公告)日:2023-04-07

    申请号:CN202211120456.2

    申请日:2022-09-15

    Abstract: 本发明公开了一种基于孪生网络的多预测输出对齐的目标跟踪方法及装置,包括:获取视频;对所述视频进行预处理,提取得到模板图像Z和搜索区域图像X;其中将视频序列首帧提取的以目标为中心的图像作为模板图像Z,将后续帧中以上一帧预测目标位置为中心的图像作为搜索区域图像X;将模板图像Z和搜索区域图像X输入预训练好的目标跟踪网络模型;根据所述目标跟踪网络模型的输出,确定目标跟踪结果。所述目标跟踪网络模型通过补充模块能够对基础跟踪器预测的目标边界框进行微调,生成能够紧密包裹目标的边界框,进而进行更精准的目标区域预测。

    一种漂移检测的残差深度特征目标跟踪方法

    公开(公告)号:CN108961308B

    公开(公告)日:2021-07-02

    申请号:CN201810558287.8

    申请日:2018-06-01

    Inventor: 胡昭华 郑伟 钱坤

    Abstract: 本发明公开了一种漂移检测的残差深度特征目标跟踪方法,通过卷积神经网络提取分层特征,然后在卷积神经网络加入残差结构,连接不同的网络层,实现浅层和深层特征的融合,不需要人为设计特征融合方式,网络结构能够自动实现特征融合的功能,用深度特征区分目标和背景,比传统特征更具有分辨力;在预测当前帧的目标位置时,提出了一个检测模型漂移的策略,设计了一个响应强度下降计数器,通过对比相邻帧响应强度的大小计数,根据计数器的数值,用来判断是否出现模型漂移,以采取相对应的模型更新方案作为补救措施,实现精确跟踪。

    基于时间和空间网络的深度集成目标跟踪方法

    公开(公告)号:CN109934846A

    公开(公告)日:2019-06-25

    申请号:CN201910201525.4

    申请日:2019-03-18

    Abstract: 本发明公开了一种基于时间和空间网络的深度集成目标跟踪方法,采用VGG-16网络提取第三、四、五层的特征,将传统相关滤波算法表示成一层卷积神经网络以获取相关滤波网络,在相关滤波网络的基础上构建时间网络和空间网络,进一步捕捉目标的时间信息和空间信息,提高算法的精确度,同时本发明通过自适应权重的集成学习算法融合所有弱跟踪器成强跟踪器来实现目标跟踪,集成学习使得本发明有较好的鲁棒性,能应对复杂场景下的目标跟踪,最后提出短时更新与长时更新相结合的更新策略,确保模型的稳定性。

    基于混合深度结构的场景识别方法

    公开(公告)号:CN106203354A

    公开(公告)日:2016-12-07

    申请号:CN201610554626.6

    申请日:2016-07-14

    CPC classification number: G06K9/00684 G06N3/02

    Abstract: 本发明公开了一种基于混合深度结构的场景识别方法。改进先前混合深度识别框架,运用到场景识别的任务中,使用深度自编码器自动提取局部图像块特征代替传统混合深度网络的局部特征提取层,得到图像块高级局部特征。同时引入空间信息改进场景识别的局部特征编码层,最后使用深度判别网络识别场景,完善混合深度混合场景识别框架,使改进的混合深度场景在形式上和识别准确率上接近卷积神经网络的,计算效率上高于深度卷积神经网络。此外针对场景数据类内差异性和类间相似性有选择扩充场景数据,构建鲁棒性高,适应小数据集的深度混合场景识别模型。

    基于支持向量机的多特征选择目标跟踪方法

    公开(公告)号:CN104616319A

    公开(公告)日:2015-05-13

    申请号:CN201510044595.5

    申请日:2015-01-28

    CPC classification number: G06K9/6269

    Abstract: 本发明公开了基于支持向量机的多特征选择目标跟踪方法,其步骤为:获取正负样本,提取样本的多种特征;抽取候选目标,提取目标的多种特征;对所有特征进行核化处理;训练SVM分类器;计算置信值,判别候选目标;更新分类器;评估跟踪性能。本发明能够解决单一特征描述目标能力较差的问题以及克服单一正样本训练的分类器分类能力较弱的缺点,能够在光照影响较大、目标出现严重遮挡等复杂场景下提高目标跟踪器的精度和稳健性。

    一种多特征联合稀疏表示的目标跟踪方法

    公开(公告)号:CN103295242A

    公开(公告)日:2013-09-11

    申请号:CN201310241910.4

    申请日:2013-06-18

    Abstract: 本发明通过对传统的稀疏编码跟踪器求解稀疏系数方法以及采用的目标特征进行分析和改进,提供一种多特征联合稀疏表示的目标跟踪方法,在光照影响较大、目标出现严重遮挡等复杂场景下保持目标跟踪的稳定性,提高目标跟踪器的精度。本发明包括如下步骤:构建初始字典;目标模板的分块处理;抽取候选粒子;提取目标特征;确定图像特征数和块的类别数;特征的核化处理;将候选样本用字典中所有块进行稀疏表示;核扩展;求解稀疏问题;块的残差计算;构建似然函数;更新模板库。本发明采用多特征联合描述目标,提高了算法的精度和跟踪的稳健性。

    基于时间和空间网络的深度集成目标跟踪方法

    公开(公告)号:CN109934846B

    公开(公告)日:2023-06-06

    申请号:CN201910201525.4

    申请日:2019-03-18

    Abstract: 本发明公开了一种基于时间和空间网络的深度集成目标跟踪方法,采用VGG‑16网络提取第三、四、五层的特征,将传统相关滤波算法表示成一层卷积神经网络以获取相关滤波网络,在相关滤波网络的基础上构建时间网络和空间网络,进一步捕捉目标的时间信息和空间信息,提高算法的精确度,同时本发明通过自适应权重的集成学习算法融合所有弱跟踪器成强跟踪器来实现目标跟踪,集成学习使得本发明有较好的鲁棒性,能应对复杂场景下的目标跟踪,最后提出短时更新与长时更新相结合的更新策略,确保模型的稳定性。

Patent Agency Ranking