一种基于对抗学习的高鲁棒隐私保护推荐方法

    公开(公告)号:CN113918814A

    公开(公告)日:2022-01-11

    申请号:CN202111187124.1

    申请日:2021-10-12

    Abstract: 本发明提供了一种基于对抗学习的高鲁棒隐私保护推荐方法。该方法包括:构建用于优化神经协同过滤模型所需的训练集,以及用于训练成员推理模型所需的参考集;设计带有成员推理正则项的神经协同过滤联合模型,并利用上述训练集与参考集对联合模型进行对抗训练方式的迭代优化,得到鲁棒的用户和物品特征表示矩阵;根据得到的用户特征矩阵与物品特征矩阵对未观测评分进行预测;将预测分值较高且未产生行为的相应物品集推荐给对应用户。本发明通过对抗训练的方式设计统一的最小最大化目标函数来显式的赋予推荐算法防御成员推理攻击的能力,进而能够防御成员推理攻击和缓解推荐模型过拟合,实现个性化推荐模型算法性能和训练数据隐私保护的双向提升。

    一种基于节点贡献聚类的公平联邦学习方法

    公开(公告)号:CN117196058A

    公开(公告)日:2023-12-08

    申请号:CN202310485711.1

    申请日:2023-04-28

    Abstract: 本发明提供的一种基于节点贡献聚类的公平联邦学习方法,首先根据联邦学习中每个客户端的实际贡献程度进行分组,并将贡献相似的客户端划分为同一组。在每一轮迭代中,首先在每个组的客户端之间进行组内聚合,然后将组内聚合获得的小组模型更新参数上传到服务器端,服务器端对不同组之间的模型进行全局聚合。经过一段时间的全局聚合,每个组基本可以获得其他组的训练信息。此时,可以将全局联邦学习过程划分为组,每个组可以训练自己的个性化组模型,使每个组都能获得与其自身贡献相匹配的公平回报。

    一种基于联邦节点贡献的公平性隐私计算方法

    公开(公告)号:CN116306910A

    公开(公告)日:2023-06-23

    申请号:CN202211089847.2

    申请日:2022-09-07

    Abstract: 本发明提供了一种基于联邦节点贡献的公平性隐私计算方法。该方法包括:客户端使用本地数据集训练本地模型,服务器端额外收集根数据集以便对客户端的贡献进行评估;服务器计算每个客户端的贡献值,根据客户端的贡献值评估客户端的节点信誉,按照比例公平聚合各个客户端的参数更新;各个客户端根据自身的训练贡献从服务器端下载相应的全局模型作为计算回报,进行下一轮本地训练更新。本发明在层级上比较了参与端本地模型每一层与全局模型对应层之间的差异性,根据每个客户端的实际贡献为每个客户端分配与节点信誉相匹配的全局模型参数,能够促进联邦节点在全局聚合和计算回报过程中的公平性。

    一种基于联邦节点贡献的公平性隐私计算方法

    公开(公告)号:CN116306910B

    公开(公告)日:2023-10-03

    申请号:CN202211089847.2

    申请日:2022-09-07

    Abstract: 本发明提供了一种基于联邦节点贡献的公平性隐私计算方法。该方法包括:客户端使用本地数据集训练本地模型,服务器端额外收集根数据集以便对客户端的贡献进行评估;服务器计算每个客户端的贡献值,根据客户端的贡献值评估客户端的节点信誉,按照比例公平聚合各个客户端的参数更新;各个客户端根据自身的训练贡献从服务器端下载相应的全局模型作为计算回报,进行下一轮本地训练更新。本发明在层级上比较了参与端本地模型每一层与全局模型对应层之间的差异性,根据每个客户端的实际贡献为每个客户端分配与节点信誉相匹配的全局模型参数,能够促进联邦节点在全局聚合和计算回报过程中的公平性。

Patent Agency Ranking