Can You Really Backdoor Federated Learning?

bid000 于 2022-05-21 发布
论文英文名字 Can You Really Backdoor Federated Learning?
论文中文名字 你真的可以后门联邦学习吗?
作者 Ziteng Sun, Peter Kairouz, Ananda Theertha Suresh, H. Brendan McMahan
来源 CoRR, November 2019
年份 2019 年 11 月
作者动机 对后门攻击和防御进行研究,选择(真实的,用户分区的和 no-iid 的)EMNIST 数据集
阅读动机
创新点 允许非恶意客户机正确标记来自目标任务的样本

内容总结

后门攻击场景

模型更新中毒攻击

我们基于 (3; 4) 提出的模型替换范式,重点研究模型更新中毒攻击。当在第 t 轮中仅选择一个攻击者(WLOG假设它是客户端 1)时,攻击者试图通过发送后门模型 $\omega^*$ 来替换整个模型 $$\Delta \omega_t^1 = \beta(\omega^*-\omega_t)$$ 其中 $\beta$ 是提升系数。

111

公式2

如果我们假设模型已经足够收敛,那么它将在 $\omega^*$ 的一个小邻域内,因此 k > 1 的其他更新 $\Delta \omega_t^k$ 很小。如果多个攻击者出现在同一回合中,则假定他们可以相互协调并平均划分此更新。

防御

假设对手知道阈值 M,因此总是可以返回这个量级的恶意更新。将这种强大优势赋予对手,使得范数边界防御等同于以下范数裁剪方法:

公式3

首先裁剪更新(如上所述),然后添加高斯噪声。

实验

无约束攻击实验结果

约束攻击实验结果

注:(1)图中绿色的线代表后门任务的平均准确率,准确率越高代表后门攻击越有效。 (2)左边一列为固定频率攻击,右边一列为随机采样攻击

后门大小实验结果

范数边界和高斯噪音实验结果

总结

  1. 本文在更现实的 EMNIST 数据集下研究了针对联邦学习的后门攻击和防御。
  2. 对手的数量和模型容量会影响后门攻击