一种基于多尺度特征融合的行人重识别方法

    公开(公告)号:CN114202740A

    公开(公告)日:2022-03-18

    申请号:CN202111483359.5

    申请日:2021-12-07

    Abstract: 一种基于多尺度特征融合的行人重识别方法,1)构建基于多尺度融合的模型,并预训练主干网络暨多尺度特征提取器。2)利用多尺度特征提取器生成图像的多尺度特征。3)采用基于Transformer的特征校准模型融合两个不同尺度的特征。4)利用深监督融合从浅层特征到深层特征不断融合不同层级的特征。5)用交叉熵损失和三元组损失监督融合过程。6)将目标测试集图像输入训练好的模型提取特征,根据特征相似度进行排序得到行人重识别的结果,进而实现行人重识别。本发明采用卷积神经网络提取多尺度特征,使用Transformer从全局的角度融合多尺度信息,使得特征同时具有细节和语义信息,有效的提高了行人重识别的准确率。

    密集行人检测方法
    22.
    发明授权

    公开(公告)号:CN114202774B

    公开(公告)日:2024-12-13

    申请号:CN202111512063.1

    申请日:2021-12-07

    Abstract: 一种密集行人检测方法。在网络训练阶段,搭建卷积神经网络,训练编码器解码器及检测头部预测正确的行人包围框;并根据预测结果,为每个行人分配一个最佳的预测候选框;固定密度估计头部外的其他网络参数,使用每个行人唯一的预测候选框生成密度目标,训练密度估计头部;最后放开网络所有参数,联合训练整个网络。在测试应用阶段,在进行后处理时,每选定一个确定保留的行人框,则在这张预测密度图上减去对应位置的高斯激活图,对于那些与该被保留行人重叠率大于阈值的行人框,利用更新后的密度图对这些行人框进行二次判断。本发明在密集场景下,解决了通用的非极大值抑制方法会误删的正确预测的包围框的问题,同时也不影响非密集场景的表现。

    遮挡状况下的行人再识别方法
    23.
    发明公开

    公开(公告)号:CN117333900A

    公开(公告)日:2024-01-02

    申请号:CN202311292854.7

    申请日:2023-10-08

    Abstract: 本发明属于行人再识别技术领域,公开一种遮挡状况下的行人再识别方法。根据目标行人出现在图片中心的特点,本发明所提出的数据增广方法随机选择原始图片的某一非中心区域替换为其他行人图像块。在此基础上,一种基于信息流的非目标区域抑制损失被提出用于训练模型,以减少遮挡区域对最终匹配特征的干扰。本发明所提出的行人图像块混合数据增强技术可以模拟多样的非目标行人遮挡情况,扩充了训练数据,进而增强了模型对于未知遮挡的鲁棒性;所提出的基于信息流的非目标区域抑制损失减小了非目标区域向最终特征的信息流动,从而减少了遮挡引入的噪声;所提出的数据增广方法以及损失函数,适用于多种网络结构并不增加推理阶段的计算量。

    一种运动信息辅助的视觉单目标跟踪方法

    公开(公告)号:CN116309683A

    公开(公告)日:2023-06-23

    申请号:CN202211532172.4

    申请日:2022-12-01

    Abstract: 本发明属于机器学习、视觉目标跟踪领域,提供了一种运动信息辅助的视觉单目标跟踪方法。本发明分别对跟踪过程中的相机运动和目标运动进行建模。对于相机运动建模方法,本发明使用特征点匹配算法计算出相邻帧间变换矩阵,并给出由相机运动导致的目标偏移量。对于目标运动建模方法,本发明使用卷积‑长短时记忆网络通过目标历史运动信息,估计目标未来的速度和位置。本发明在引入运动信息进行辅助跟踪后,可以显著提高跟踪算法应对光照变化,遮挡等挑战的能力,提升跟踪算法鲁棒性,并且具有较低的计算量,能够达到实时跟踪需求。

    一种基于图像修复的图像3D化方法

    公开(公告)号:CN115063303A

    公开(公告)日:2022-09-16

    申请号:CN202210551793.0

    申请日:2022-05-18

    Abstract: 本发明提供一种基于图像修复的图像3D化方法,包括:获取待处理图像,通过预先训练的深度提取模型获取图像深度;基于预设的深度边缘值获取初级背景边缘图,再对所述初级背景边缘图像进行滤波和连通域检测处理获取精确背景边缘图;根据预设的3D效果确定所述精确背景边缘图中需要修复的图像范围,并由所述待处理图像中获取修复处理所用的内容素材;将所述待处理图像、精确背景边缘图、需要修复的背景图像范围以及内容素材输入预先训练的图像修复模型中,从而生成修复的背景图像;将前景图像与修复的背景图像结合,按照预设的3D效果输出转换视频。本发明能够更广泛地应用于实际场景中,鲁棒性强,同时在前背景复杂的图像上也能取得良好的处理效果。

    一种基于多视角图像的3D人体自监督重建方法

    公开(公告)号:CN114998515A

    公开(公告)日:2022-09-02

    申请号:CN202210558080.7

    申请日:2022-05-19

    Abstract: 本发明提供了一种基于多视角图像的3D人体自监督重建方法,涉及三维人体重建技术领域,所述方法包括如下步骤:获取多视角图像,建立三维空间;将多视角图像、多视角图像对应的SMPL参数、相机参数输入至特征提取网络ResUnet34中,输出多视角特征图;通过双线性插值采样得到顶点在多视角特征图的特征;利用稀疏卷机网络SpareConvNet将所述结构化隐式编码扩散到周围的空间中;根据所述几何编码和外观编码得到通用型神经辐射场;使用体素渲染的方法给定一个新的视角相机参数,对所述通用型神经辐射场进行渲染,得到新视角相机参数下的2D图像。本发明通过利用稀疏的多视角对人体进行重建,然后渲染到目标视角下的图像,实现了2D图像到2D图像的自监督,避免了对3D真值的依赖。

    视频行人重识别的方法
    28.
    发明公开

    公开(公告)号:CN114202739A

    公开(公告)日:2022-03-18

    申请号:CN202111483319.0

    申请日:2021-12-07

    Abstract: 本发明属于视频行人重识别技术领域,提供了一种视频行人重识别的方法。本发明使用Transformer结构提取多视角特征来解决视频行人重识别任务。视频行人重识别目的是实现行人序列图片的跨摄像头匹配。本发明提出使用三叉网络分别获取行人视频的空间视角,时序视角和时空视角,以此获得在不同特征域的多视角观察。在单一的视角特征域内使用Transformer挖掘单视角特征关系,并优化视角特征。在跨视角特征域间使用Transformer探索多视角特征关系,并融合多视角信息得到更充分的特征表示。本发明可以提取行人视频更鲁棒、更具判别力的特征表示,能够实现更高精度的行人视频实例匹配。

    视频行人重识别的方法

    公开(公告)号:CN114202739B

    公开(公告)日:2024-12-20

    申请号:CN202111483319.0

    申请日:2021-12-07

    Abstract: 本发明属于视频行人重识别技术领域,提供了一种视频行人重识别的方法。本发明使用Transformer结构提取多视角特征来解决视频行人重识别任务。视频行人重识别目的是实现行人序列图片的跨摄像头匹配。本发明提出使用三叉网络分别获取行人视频的空间视角,时序视角和时空视角,以此获得在不同特征域的多视角观察。在单一的视角特征域内使用Transformer挖掘单视角特征关系,并优化视角特征。在跨视角特征域间使用Transformer探索多视角特征关系,并融合多视角信息得到更充分的特征表示。本发明可以提取行人视频更鲁棒、更具判别力的特征表示,能够实现更高精度的行人视频实例匹配。

    一种基于yolov5的Deepsort无人机视角行人多目标跟踪方法

    公开(公告)号:CN114820702B

    公开(公告)日:2024-09-06

    申请号:CN202210388211.1

    申请日:2022-04-14

    Inventor: 卢湖川 刘长青

    Abstract: 本发明属于机器学习、目标检测、目标跟踪领域,提供了一种基于yolov5的Deepsort无人机视角行人多目标跟踪方法。本发明的目标检测器使用轻量化yolov5检测器,对参数进行int8量化后,在保持较高精度的同时,降低模型的内存大小,提升检测速度。对检测网络部署在AI边缘设备的可行性大大提升。本发明采用DeepSort多目标跟踪跟踪算法,利用卡尔曼滤波、匈牙利算法来解决当前帧检测框与轨迹的关联问题,提高了数据关联的准确性,有效的降低了同类干扰物在跟踪过程中的影响。

Patent Agency Ranking