-
公开(公告)号:CN109670528B
公开(公告)日:2023-04-18
申请号:CN201811352790.4
申请日:2018-11-14
Applicant: 中国矿业大学
IPC: G06V10/774 , G06V10/82 , G06V10/764 , G06V40/10 , G06N3/0464 , G06N3/096
Abstract: 本发明公开了一种面向行人重识别任务的基于成对样本随机遮挡策略的数据扩充方法,在训练阶段,首先通过采用基于成对样本随机遮挡策略的数据扩充方法增加样本的多样性,提高深度行人重模型训练过程中的鲁棒性,进而提高模型的泛化性能。本发明与现有技术中数据扩充的方法相比,利用了孪生深度学习模型训练数据的特点,同时考虑了孪生网络训练的困难,提出了一种新的数据扩充方法。通过增加训练数据对的多样性,有效缓解单个行人数据集类别少且缺乏多样性问题给带来的影响,提升了模型的泛化性能,让行人重识别方法可以更好的处理复杂环境下的相行人重识别问题。
-
公开(公告)号:CN111259758B
公开(公告)日:2023-04-07
申请号:CN202010030047.8
申请日:2020-01-13
Applicant: 中国矿业大学
IPC: G06V20/13 , G06V20/17 , G06V10/46 , G06V10/764 , G06V10/82 , G06N3/0464 , G06N3/08
Abstract: 本发明公开了一种针对密集区域的两阶段遥感图像目标检测方法,主要解决现有技术对目标密集区域目标识别准确率低的问题,其步骤为:1、对于输入图像进行数据增强操作,增加训练样本集;2、构建基于多尺度特征提取模块;3、在不同尺度的特征图上进行目标检测,找出目标密集的区域;4、针对目标密集的区域进行二次目标检测;5、对检测出的目标进行分类和位置回归,输出目标对应的分类标签和位置坐标,完成对图像的目标识别和定位。本发明利用网络多尺度结构的特点提取和融合不同尺度下的特征图来检测不同大小的目标,并对目标密集度高的区域进行二次检测,提高了小目标识别准确率。该方法可用于无人机以及卫星对目标的检测,侦查和监视。
-
公开(公告)号:CN115393776A
公开(公告)日:2022-11-25
申请号:CN202211148006.4
申请日:2022-09-20
Applicant: 中国矿业大学
Abstract: 本发明公开了一种面向自监督视频目标分割的黑盒攻击方法,基于亲和矩阵的自监督视频目标分割模型学习视频序列的特征表示从而实现强大的像素对应关系。首先基于初始化随机产生的对抗扰动,构建针对单帧、双帧和多帧的对比损失,进行迭代优化;然后设计特征损失增强黑盒攻击所生成对抗样本的可转移性;采用像素级损失使生成的对抗样本噪声不可感知;构建多路径聚合模块获得迭代优化的对抗性扰动并将其添加到原始视频帧产生对抗样本;最终将对抗视频输入自监督视频目标分割网络得到最终预测掩码。本发明对自监督视频目标分割模型的黑盒攻击方法的研究识别了分割算法的脆弱性,能够进一步提升自监督视频目标分割任务的安全性和鲁棒性。
-
公开(公告)号:CN114842542A
公开(公告)日:2022-08-02
申请号:CN202210606040.5
申请日:2022-05-31
Applicant: 中国矿业大学
IPC: G06V40/16 , G06V10/82 , G06V10/774 , G06N3/04 , G06N3/08
Abstract: 本发明公开了一种基于自适应注意力与时空关联的面部动作单元识别方法及装置,先从视频数据中抽取模型训练所需要的原始连续图像帧组成训练数据集,再对原始图像帧进行预处理得到扩增图像帧序列,再构建卷积神经网络模块I提取扩增图像帧的分层多尺度区域特征,再构建卷积神经网络模块II进行面部动作单元自适应注意力回归学习,再构建自适应时空图卷积神经网络模块III学习面部动作单元时空关联,最后构建全连接层模块IV进行面部动作单元识别。本发明采用端到端的深度学习框架学习动作单元识别,利用面部动作单元之间的相互依赖关系以及时空相关性,能够有效识别面部肌肉在二维图像中的运动情况,实现面部动作单元识别系统构建。
-
公开(公告)号:CN114494354A
公开(公告)日:2022-05-13
申请号:CN202210138232.8
申请日:2022-02-15
Applicant: 中国矿业大学
Abstract: 本发明公开了一种基于注意力多模态特征融合的无监督RGB‑T目标跟踪方法,先采用分层卷积神经网络来提取RGB图像和热红外图像的特征;再使用特征融合模块将来自不同水平及不同模态的特征进行同步融合;再对融合得到的特征进行两次前向跟踪得到响应图;接着,将融合特征逆序,原先的模板图作为搜索图,搜索图作为模板图,生成的响应图作为伪标签进行反向跟踪得到最终的响应图;然后,最小化反向跟踪得到的响应图与原始标签之间的一致性损失进行无监督训练;最后,将测试视频帧输入训练好的网络进行前向跟踪得到响应图即为预测的目标位置。本发明方法可以充分利用多层次、多模态信息并能发挥无监督学习的优势。
-
公开(公告)号:CN114429460A
公开(公告)日:2022-05-03
申请号:CN202210080621.X
申请日:2022-01-24
Applicant: 中国矿业大学
Abstract: 本发明公开了一种基于属性感知关系推理的通用图像美学评估方法和装置,用于提高通用图像美学评估模型的准确性。本发明首先利用卷积神经网络构建特征提取器,得到图像的全局特征图;并在全局特征图的基础上,通过学习图像的美学属性来生成属性感知特征图;然后利用自注意力机制构建属性关系推理模块,并进一步得到美学属性的关系特征图;最后把全局特征图、美学属性特征和属性关系特征图进行特征联合,同时对图像的美学分布进行建模预测;最终通过计算把美学分布转化成图像的通用美学分数;本发明可有效地评估待测试图像的通用美学分数,准确率高,并且本发明可以有效地筛选出符合大众审美的图像,易于应用在图像检索和图像增强等技术中。
-
公开(公告)号:CN108805200B
公开(公告)日:2022-02-08
申请号:CN201810589587.2
申请日:2018-06-08
Applicant: 中国矿业大学
IPC: G06V10/764 , G06V10/774 , G06V10/74 , G06V10/82 , G06V20/10 , G06K9/62
Abstract: 本发明公开了一种基于深度孪生残差网络的光学遥感图像分类方法,属于图像处理技术领域。在训练阶段,首先通过两个完全相同的深度残差网络,对输入的遥感图像对进行特征提取,分别得到它们的特征表示,然后结合这两个特征表示计算其在特征空间的欧氏距离,以判断输入图像对的相似程度。在测试阶段,使用训练好的任一个深度残差网络对输入图像进行场景分类。本发明可对大规模的高分辨遥感图像进行场景分类,可在自然灾害监测与评估,城市规划,环境监测等领域发挥重要作用。
-
公开(公告)号:CN113128323A
公开(公告)日:2021-07-16
申请号:CN202010047847.0
申请日:2020-01-16
Applicant: 中国矿业大学
Abstract: 本发明公开了一种基于协同进化卷积神经网络学习的遥感图像分类方法,属于图像处理技术领域。首先初始化多个不同优化方法的相同网络,将初始化的网络同时进行训练,选取一个时间间隔,在每个时间间隔后,选取在测试集上分类准确率最高的网络,保存其模型的全部参数并将保存的模型参数赋予协同训练中剩余的网络,进行网络的迭代训练,每次丢弃表现较差的模型参数,继承表现最好的模型参数。使得每个优化方法充分发挥其功能,达到优化最大化,提高收敛速度,达到较高的准确率。本发明可对大规模的高分辨率遥感图像进行场景分类,大大提高遥感图像分类的准确性,可用于自然灾害的检测与评估,环境监测等领域,减少判断与决策失误性,减少损失。
-
公开(公告)号:CN111211903B
公开(公告)日:2021-06-11
申请号:CN201911211573.8
申请日:2019-12-02
Applicant: 中国矿业大学
Abstract: 本发明公开一种基于雾计算和保护隐私的移动群体感知数据报告去重方法,首先采用加密原语来实现安全的任务分配,并确保众包报告的机密性;然后改进消息锁加密MLE算法,以实现保护隐私的移动群体感知数据报告去重,同时隐藏了雾节点中贡献者的身份,并有效地抵抗了重复数据伪造攻击。此外,本发明还采用聚合签名算法来实现高效的签名聚合和验证,并在不检查移动群体感知数据报告具体内容的情况下公平地记录每个参与者的贡献;最后构建了一种高效的检索方法,在检测贪婪的参与者的同时奖励真正的贡献者。本发明在实际应用中,其通信开销大大减少,但其通信效率却更高,并极大地提高了隐私性。
-
公开(公告)号:CN109063649B
公开(公告)日:2021-05-14
申请号:CN201810876899.1
申请日:2018-08-03
Applicant: 中国矿业大学
Abstract: 本发明公开了一种基于孪生行人对齐残差网络的行人重识别方法,包括以下步骤:S1、构建基础分支孪生残差网络;S2、构建行人对齐分支孪生残差网络;S3、利用已构造好的训练数据集对构建好的基础分支孪生网络和行人对齐分支孪生残差网络进行参数训练,将训练好的基础分支孪生残差网络中基础分支原型和行人对齐分支孪生残差网络中行人对齐分支原型取出进行行人重识别的分类模型。本发明提升了原有算法行人重识别的准确度。
-
-
-
-
-
-
-
-
-