-
公开(公告)号:CN111753881B
公开(公告)日:2024-03-29
申请号:CN202010472526.5
申请日:2020-05-28
Applicant: 浙江工业大学
IPC: G06F18/214 , G06F18/24 , G06N3/08 , G06N3/0464 , G06N3/084
Abstract: 本发明公开了一种基于概念敏感性量化识别对抗攻击的防御方法,包括以下步骤:(1)生成图片样本集;(2)构建概念生成器,按类将图片样本集中的图片样本输入,获得每类图片样本所对应的最大决策影响概念;(3)将所有最大决策影响概念和噪声输入图像深度学习模型的特征提取网络,再采用二分类器进行分类,对特征提取网络进行训练;(4)将所有最大决策影响概念输入训练完成的特征提取网络,再采用图像深度学习模型的分类器进行分类,对分类器进行训练;(5)训练完成后,获得训练好的图像深度学习模型;采用训练好的图像深度学习模型对待识别图像进行识别。该方法可提高图像深度学习模型的可解释性以及识别和防御能力。
-
公开(公告)号:CN112836822A
公开(公告)日:2021-05-25
申请号:CN202110220275.6
申请日:2021-02-26
Applicant: 浙江工业大学
Abstract: 本发明公开了一种基于宽度学习的联邦学习策略优化方法和装置,包括:(1)对边缘端的本地模型进行模型初始化,同时在服务器端部署宽度学习网络;(2)对本地模型进行预训练,采用主动学习策略筛选出信息熵含量前n大的n个较优特征向量上传至服务器端;(3)服务器端以n个较优特征向量作为宽度学习网络的输入数据,获得输出宽度学习网络对输出数据的预测置信度,并根据预测置信度更新宽度学习网络的参数,同时返回预测置信度至边缘端;(4)边缘端利用返回的预测置信度更新本地模型的参数;(5)迭代(2)~(4),参数确定的本地模型作为特征提取器,参数确定的宽度学习网络作为分类器,组成联邦学习模型,以提高模型的训练速度。
-
公开(公告)号:CN112434758A
公开(公告)日:2021-03-02
申请号:CN202011499170.0
申请日:2020-12-17
Applicant: 浙江工业大学
Abstract: 本发明公开了一种本发明提供的基于聚类的联邦学习搭便车攻击防御方法,1)利用变分自编码器进行搭便车攻击客户端检测,保护模型的隐私,提高鲁棒性;2)在联邦学习过程中,收集多轮变分自编码器的重建概率并对重建概率聚类后依据时间域上聚类结果的相似度筛选出异常的搭便车攻击客户端;3)接收客户端利用本地样本数据对聚合的全局模型的测试结果,依据测试结果反映客户端是否为搭便车攻击者,从而保护模型的隐私,不会被泄露。
-
公开(公告)号:CN112241554A
公开(公告)日:2021-01-19
申请号:CN202011184690.2
申请日:2020-10-30
Applicant: 浙江工业大学
Abstract: 本发明公开了一种基于差分隐私指数机制的模型窃取防御方法和装置,包括:将用户的预测样本输入至通过API调用的目标模型,并对目标模型针对预测样本的原始置信度分布向量添加差分隐私指数机制后作为隐藏置信度分布向量反馈给用户;根据隐藏置信度分布向量得到的预测类标与根据原始置信度分布向量得到的预测类标相同;用户利用隐藏置信度分布向量和预测样本对与目标模型的网络结构相同的窃取网络进行训练以确定第一网络参数,该第一网络参数与目标模型的目标网络参数不同,即由第一网络参数与窃取网络组成的防御模型与由网络结构和目标网络参数组成的目标模型不同,实现了对目标模型窃取的防御。能够提高目标模型的信息安全性。
-
公开(公告)号:CN110969242A
公开(公告)日:2020-04-07
申请号:CN201911183790.0
申请日:2019-11-27
Applicant: 浙江工业大学
Abstract: 本发明公开了一种基于生成式对抗产生通用逆扰动的防御方法,包括:(1)搭建生成式对抗网络,生成式对抗网络包括生成模型和判别模型;(2)利用各类攻击方法获得比较全面的对抗样本;(3)采用正常样本对生成式对抗网络中的生成模型和判别模型进行预训练;(4)建立生成模型的损失函数,对生成模型进行训练;(5)建立判别模型的损失函数,对判别模型进行训练;(6)重复步骤(4)和(5),直到迭代次数达到预设的上限值或两个模型的损失函数达到预设的阈值;(7)对训练完成的生成模型进行性能指标检测与应用。本发明利用搭建合适的生成式对抗网络,完成对通用扰动分布的特征提取,产生合适的通用逆扰动,从而提高模型的鲁棒性。
-
公开(公告)号:CN112365005B
公开(公告)日:2024-03-19
申请号:CN202011459232.5
申请日:2020-12-11
Applicant: 浙江工业大学
IPC: G06N20/00 , G06F18/22 , G06F18/214
Abstract: 本发明公开了一种基于神经元分布特征的联邦学习中毒检测方法,包括以下步骤:(1)获取在客户端训练并上传的多个边缘模型,依据每个客户端对应的相邻几次上传的边缘模型的相似度,从每次上传的多个边缘模型筛选满足筛选要求的多个边缘模型作为候选中毒模型;(2)依据模型参数的分布状态,从候选中毒模型中筛选至少1个模型作为中毒模型,并剔除中毒模型,(3)根据样本数据和标签对中毒模型进行反演以得到中毒补丁数据,依据中毒补丁数据优化服务端的聚合模型参数,得到优化后的聚合模型,将优化后的聚合模型由服务端下发到客户端作为客户端的边缘模型,用于下一轮次的边缘训练。该联邦学习中毒检测方法能够快速检测中毒模型。
-
公开(公告)号:CN113297574B
公开(公告)日:2022-08-02
申请号:CN202110653241.6
申请日:2021-06-11
Applicant: 浙江工业大学
Abstract: 本发明公开了一种基于强化学习奖励机制的激活函数自适应变化模型窃取防御方法,通过在模型输出中,对激活函数进行自适应变化,使用强化学习的奖励机制不断调整自适应策略,降低攻击者从模型输出中获取的信息量,隐藏模型输出的置信度信息中的敏感信息,达到对于模型窃取攻击的防御目的。本发明的方法,在不同的数据集上和模型上,均能达到良好的防御效果。
-
公开(公告)号:CN112560059B
公开(公告)日:2022-04-29
申请号:CN202011499140.X
申请日:2020-12-17
Applicant: 浙江工业大学
Abstract: 本发明公开了一种基于神经通路特征提取的垂直联邦下模型窃取防御方法,包括:(1)将数据集中的每张样本平均分成两部分,组成样本集DA和DB,且仅样本集DB包含样本标签;(2)依据DA对边缘终端PB的边缘模型MA进行训练,依据DB对边缘终端PB的边缘模型MB进行训练,PA将训练过程产生的特征数据发送给PB,PB利用接收的特征数据和激活神经元通路数据计算损失函数,PA和PB并将各自的损失函数掩码加密后上传至服务端;(3)服务端对上传的损失函数掩码解密并聚合后求解聚合的损失函数获得MA和MB的梯度信息,并返回梯度信息至PA和PB以更新边缘模型网络参数。来提高在垂直联邦场景下边缘模型的信息安全性。
-
公开(公告)号:CN113378985A
公开(公告)日:2021-09-10
申请号:CN202110761503.0
申请日:2021-07-06
Applicant: 浙江工业大学
Abstract: 本发明公开了一种基于逐层相关性传播的对抗样本检测方法和装置,包括:获取图像样本,利用图像样本训练深度学习模型;将良性图像样本输入至训练好的深度学习模型,并计算每个良性图像样本的相关性分数,其中,良性图像样本的相关性分数由像素点的相关性分数计算得到,像素点的相关性分数依据神经元的相关性,反向逐层传递计算得到;统计多数良性图像样本的相关性分数分布确定对抗样本的判别依据;将待测图像样本输入至训练好的深度学习模型,计算待测图像样本的相关性分数,依据判别依据检测待测图像样本是否为对抗样本。以实现对各类深度学习模型的各类对抗样本的快速准确检测。
-
公开(公告)号:CN113283536A
公开(公告)日:2021-08-20
申请号:CN202110653336.8
申请日:2021-06-11
Applicant: 浙江工业大学
Abstract: 本发明公开了一种面向成员推理攻击的基于异常点检测的深度模型隐私保护方法,通过正则化方法缓解目标模型的过拟合程度,然后在该模型上找出容易受到成员推理攻击的异常样本,进而从目标模型的训练集中删除这些样本,最后重新训练目标模型,达到防御效果。为了确定容易受到成员推理攻击的样本,首先建立参考模型训练集,建立参考模型,用参考模型训练集训练参考模型,将待测样本输入参考模型,获取待测样本的特征向量,通过比较不同待测样本的特征向量的距离,计算待测样本的局部离群因子,局部离群因子大于1的样本为异常样本。利用本发明,可以消除传统防御方法存在的梯度不稳定、训练不收敛、收敛速度慢等问题,达到较好的防御性能。
-
-
-
-
-
-
-
-
-