-
公开(公告)号:CN118196476A
公开(公告)日:2024-06-14
申请号:CN202410184162.9
申请日:2024-02-19
Applicant: 北京大学
IPC: G06V10/764 , G06V10/44 , G06V10/82 , G06N3/09
Abstract: 本发明涉及一种图像分类及图像分类模型的训练方法和装置,获取目标训练样本集,目标训练样本集中包括至少一个图像;针对每个图像,基于所述每个图像和预训练好的骨干模型,确定每个图像的全局特征图、第一块特征图,以及第二块特征图;将目标训练样本集中所有图像对应的全局特征图、第一块特征图以及第二块特征图,输入预设损失函数中,迭代更新得到图像分类模型的参数;预设损失函数的正样本相似度计算项中,针对所述每个图像的数据增强图像,以及目标训练样本集中与所述每个图像同一类别的其他图像,分别设置有与每个图像对应的正样本数量相关的加权项,用于平衡不同图像的正样本数量对梯度的影响,还用于学习不同类别图像之间的相同特征。
-
公开(公告)号:CN108171247B
公开(公告)日:2020-10-27
申请号:CN201711395760.7
申请日:2017-12-21
Applicant: 北京大学
Abstract: 本发明提供了一种车辆再识别方法及系统,基于车辆部件特征与集合距离度量学习,包括如下步骤:提取车辆的全局特征及局部特征,并基于局部特征的质量确定每个局部特征所占权重;通过集合距离度量学习,完成车辆再识别过程。本发明使用集合距离度量学习加速特征学习的过程。集合距离度量学习首先将同一辆车的不同图片视为一个集合,通过减小每个集合内部的图片距离,同时增大不同集合之间的距离优化特征学习过程。本发明有效降低了训练的计算复杂度,同时可获得更具有判别力的特征,能够更为准确的进行车辆再识别。
-
公开(公告)号:CN111597893A
公开(公告)日:2020-08-28
申请号:CN202010291688.9
申请日:2020-04-14
Applicant: 北京大学
IPC: G06K9/00 , G06K9/32 , G06K9/46 , G06K9/62 , G06F16/532 , G06F16/583 , G06F16/55
Abstract: 本发明公开了一种行人图像的匹配方法、装置、存储介质及终端,所述方法包括:根据预设匹配模型对第一微调边界框中的目标行人和第二微调边界框中的待比对行人进行匹配,得到匹配结果,以便于根据匹配结果进行目标行人的搜索;其中,预设匹配模型用于对第一微调边界框中的目标行人的第一相互可见部分的特征和第二微调边界框中的待比对行人的第二相互可见部分的特征进行匹配。因此,采用本申请实施例,针对目标行人的可见部位特征提取与匹配,不仅能够有效地避免被遮挡,而且由于是部分匹配,避免了图像匹配过程中可能会出现的图像变形现象,实现了图像之间的精准匹配,最终显著提升了行人检测和识别的准确率。
-
公开(公告)号:CN111597887A
公开(公告)日:2020-08-28
申请号:CN202010269718.6
申请日:2020-04-08
Applicant: 北京大学
Abstract: 本申请公开了一种行人再识别方法及系统,包括:输入训练集至待训练模型,确定训练集中的每个图像数据的单分类标签和记忆特征;根据单分类标签和记忆特征集合,通过正标签预测,确定多分类标签;根据训练集中的每个图像数据的图像特征和记忆特征集合,确定分类分数;根据多分类标签和分类分数确定多标签分类损失;根据多标签分类损失,更新和训练待训练模型,得到识别模型。通过根据训练集中的每个图像数据的图像特征和记忆特征集合确定分类分数,不受数据集领域影响;根据单分类标签和记忆特征集合,通过正标签预测确定多分类标签,再根据多分类标签和分类分数确定多标签分类损失,更新和训练待训练模型,识别模型的性能高,鲁棒性强,成本低。
-
公开(公告)号:CN111563404A
公开(公告)日:2020-08-21
申请号:CN201911422601.0
申请日:2019-12-31
Applicant: 北京大学
Abstract: 本发明提出了一种适用于基于视频的行人再识别的全局局部时间表示方法。本申请提出的网络分别由DTP卷积和TSA模型组成。DTP由并行扩展的时间卷积组成,用于模拟相邻帧之间的短期时间线索。TSA利用非连续帧之间的关系来捕获全局时间线索。在五个基准数据集上的实验结果表明,所提出的GLTR方法优于目前最先进的方法。
-
公开(公告)号:CN114926895A
公开(公告)日:2022-08-19
申请号:CN202210339901.8
申请日:2022-04-01
Applicant: 北京大学
Abstract: 本申请涉及深度学习及姿态估计技术领域,更为具体来说,本申请涉及一种基于上下文实例解耦的多人姿态估计方法与装置。所述方法包括:获取预设数目个包含多人的图像;将所述包含多人的图像作为训练样本输入基于上下文实例解耦的多人姿态估计模型中进行训练;采用训练好的基于上下文实例解耦的多人姿态估计模型对目标图像进行姿态估计;其中,所述基于上下文实例解耦的多人姿态估计模型设置有实例信息抽象模块、全局特征解耦模块和热图估计模块。本申请所述方法与装置能够在更大范围内探索上下文线索,从而对空间检测错误具有鲁棒性,且在精度和效率上均优。
-
公开(公告)号:CN110543817A
公开(公告)日:2019-12-06
申请号:CN201910677983.5
申请日:2019-07-25
Applicant: 北京大学
Abstract: 本发明公开了一种基于姿势指导特征学习的行人再识别方法,包括:将原始图像进行姿势归一化处理,得到姿势归一化图像;将原始图像与姿势归一化图像进行权值共享处理后再分别进行全局平均池化,得到姿势不变特征;对原始图像进行身体区域划分得到若干身体区域图像,将原始图像与若干身体区域图像进行权值共享处理后再分别进行全局平均池化,得到局部描述特征;将姿势不变特征和局部描述特征连接为姿势指导特征。本发明提供的方法,获取对姿势变化具有鲁棒性的姿势不变特征和对错位误差具有鲁棒性的局部描述特征,利用姿势不变特征和局部描述特征组合成姿势指导特征进行行人再识别,提高了再识别精度和特征提取效率。
-
公开(公告)号:CN109886090A
公开(公告)日:2019-06-14
申请号:CN201910013082.6
申请日:2019-01-07
Applicant: 北京大学
Abstract: 一种基于多时间尺度卷积神经网络的视频行人再识别方法,包括:利用多时间尺度卷积神经网络模型处理视频,获得具有空间特征和多尺度时间特征的第一输出,其中,所述多时间尺度卷积神经网络由在空间卷积神经网络中插入多尺度的3D卷积层和残差注意力层获得;利用空间卷积神经网络模型处理所述视频,获得具有空间特征的第二输出;将所述第一输出和所述第二输出进行融合;根据融合结果,对所述视频中的行人进行步态识别和/或空间特征识别。本发明实现了对视频中行人的空间特征(衣着)以及步态的识别,具有更高的识别率。与2D神经网络相比,获取了多尺度的时间线索;与3D神经网路相比,引入的参数容量更小,在相同系统中的运行速度更快。
-
公开(公告)号:CN111597887B
公开(公告)日:2023-02-03
申请号:CN202010269718.6
申请日:2020-04-08
Applicant: 北京大学
IPC: G06V40/10 , G06V10/774 , G06V10/764 , G06V10/82 , G06N3/04 , G06N3/08
Abstract: 本申请公开了一种行人再识别方法及系统,包括:输入训练集至待训练模型,确定训练集中的每个图像数据的单分类标签和记忆特征;根据单分类标签和记忆特征集合,通过正标签预测,确定多分类标签;根据训练集中的每个图像数据的图像特征和记忆特征集合,确定分类分数;根据多分类标签和分类分数确定多标签分类损失;根据多标签分类损失,更新和训练待训练模型,得到识别模型。通过根据训练集中的每个图像数据的图像特征和记忆特征集合确定分类分数,不受数据集领域影响;根据单分类标签和记忆特征集合,通过正标签预测确定多分类标签,再根据多分类标签和分类分数确定多标签分类损失,更新和训练待训练模型,识别模型的性能高,鲁棒性强,成本低。
-
公开(公告)号:CN112232422A
公开(公告)日:2021-01-15
申请号:CN202011126529.X
申请日:2020-10-20
Applicant: 北京大学
Abstract: 本发明公开了一种人体目标行人的重识别方法、装置、电子设备和存储介质,所述方法包括:通过数据域无关映射模型,将标注数据集中的各个第一图像和无标注数据集中的各个第二图像均映射到共享特征空间中;通过全局优化以及局部优化模型对重识别模型进行优化,得到优化后的重识别模型;通过优化后的重识别模型的分类器,对无标注数据集中的各个第二图像进行重识别,并判断视频库中是否包括目标行人的目标视频。因此,采用本申请实施例,由于引入了数据域无关映射模型,能够通过迁移技术,使得在有标签数据上训练得到的模型,能够应用于无标签数据集上;此外,通过引入全局优化以及局部优化模型,提升了训练对标签噪声的鲁棒性,提升了重识别模型的模型性能。
-
-
-
-
-
-
-
-
-