论文英文名字 | Mitigating Sybils in Federated Learning Poisoning |
---|---|
论文中文名字 | 减轻联邦学习中毒中的 Sybils |
作者 | Clement Fung, Chris J.M. Yoon, Ivan Beschastnikh |
来源 | CoRR, August 2018 |
年份 | 2018年8月 |
作者动机 | 联邦学习方法容易受到各种攻击,包括模型中毒,在有女巫的情况下,这种情况会大大恶化。现有的防御方法需要事先了解女巫的数量信息,作者想设计一种不需要事先了解预期的女巫数量的防御方法。 |
阅读动机 | 了解联邦学习中女巫中毒攻击的防御 |
创新点 | 提出一种新防御方法:FoolsGold,主要方法是保留诚实节点的更新,同时惩罚女巫的贡献,核心是History,Pardoning和Logit三个部分的设计。 |
内容总结
- 引言
通过实验评估了联邦学习对基于女巫的中毒攻击的脆弱性。 - 背景
介绍了机器学习、随机梯度下降、联邦学习、针对 ML 的针对性中毒攻击和女巫攻击。 - 假设和威胁模型
介绍了联邦学习设置、女巫攻击和攻击能力。 - SGD的挑战与防御
介绍了SGD面临的三个挑战和 Multi-Krum 防御方法。 -
FoolsGold设计
-
五个设计目标
-
算法的具体实现
(1)聚合每次迭代的历史向量
(2)计算余弦相似度
(3)找到每个客户端与其他客户端的最大余弦相似度
(3)对诚实客户端的更新进行赦免
(5)Logit
(6)更新参数
-
- 评估
- 典型攻击场景评估
- 与 Multi-Krum 比较
- 不同的客户端数据分布
- 了解 FoolsGold 的攻击
- 设计元素的效果
- 性能开销
- 限制
- FoolsGold 对单个女巫攻击的防御很差,作者将其与 Multi-Krum 结合防御效果更好。
- FoolsGold 需要应对知识渊博的女巫攻击,作者从历史机制和相似度选择两个方面提出了相关该进办法。
- 相关工作
回顾了有关安全 ML、sybils 防御和其他 ML 中毒防御的更广泛的文献。 - 结论
作者提出了 FoolsGold 方法,一种利用客户端贡献相似性的防御。经过各种评估表明,在所有情况下,作者的防御方法都能够胜过之前的工作。FoolsGold 对联邦学习算法的更改最小,依赖于余弦相似度等标准技术,并且不需要事先了解预期的女巫数量。
另一篇 FoolsGold 描述论文:The Limitations of Federated Learning in Sybil Settings (RAID -> CCF B)