Neurotoxin_Durable Backdoors in Federated Learning

bid000 于 2022-07-30 发布
论文英文名字 Neurotoxin: Durable Backdoors in Federated Learning
论文中文名字 神经毒素: 联邦学习中的持久后门
作者 Zhengming Zhang, Ashwinee Panda, Linyue Song, Yaoqing Yang, Michael W. Mahoney, Prateek Mittal, Kannan Ramchandran, Joseph Gonzalez
来源 39th ICML 2022: Baltimore, MD, USA [CCF 人工智能 A 类会议]
年份 2022 年 7 月
作者动机 先前的工作表明,可以将后门插入到 FL 模型中,但这些后门通常不持久,即,在攻击者停止上传中毒更新后,它们不会保留在模型中。
阅读动机
创新点 提出了神经毒素,这是对现有后门攻击的一种简单的单行修改,它通过攻击在训练期间幅度变化较小的参数来发挥作用。

内容总结

主要贡献

  1. 介绍了神经毒素,这是一种新型模型中毒攻击,旨在将更耐用的后门插入 FL 系统。
  2. 对三个自然语言处理任务(Reddit 的下一个单词生成以及 IMDB 和 Sentiment140 的情感分类)、两个模型架构(LSTM 和 Transformer)以及三个计算机视觉数据集(CIFAR-10、CIFAR-100 和 EMNIST 的分类)、两个模型架构(ResNet 和 LeNet)进行了广泛的实验评估,以对抗有防御的 FL 系统。

联合学习中的持久后门

神经毒素与基线对比实验结果

威胁模型

  1. 攻击者只能破坏 FL 中一小部分设备(<1%)。
  2. 受感染的设备可以在 FL 培训课程中参与有限的次数。我们将此参数称为 AttackNum,并在我们的实验中对其进行更改,

动机

先前的工作已经证明重新训练模型在消除后门方面的有效性

后门攻击所使用的后门类型和优化方法概括如下:

后门攻击概括

为什么后门消失了

$\hat{\theta}$ 是攻击者的局部模型,它使中毒数据集 $\hat{D}$ 上的损失函数 $L$ 最小化。

考虑一个玩具问题,其中攻击者的模型 $\hat{\theta}$ 与全局模型 $\theta$ 仅在一个坐标上不同。

$i$ 为这个权重 $\hat{\omega}_i$$\hat{\theta}$ 中的索引;不失一般性,让 $\hat{\omega}_i$ > 0

攻击者的目标是用他们的权重 $\hat{\omega}_i$ 替换全局模型 $\theta$ 中的权重 $\omega_i$ 的值。

$T=t$ 为攻击者插入后门时的迭代,并且对于所有 $T>t$,攻击者在训练中缺席。

在任何一轮 $T>t$ 中,良性设备可能会以负梯度更新 $\omega_i$。 如果 $\omega_i$ 是良性全局最优值 $\theta^*$ 使用的权重,则任何更新向量都有可能擦除攻击者的后门。每一轮 FL,攻击者更新未被擦除的概率都会降低。

神经毒素

直觉:随机梯度下降(SGD)中梯度的稀疏性,经验上已知,聚合的良性梯度的 $\ell_2$ 范数的大部分包含在非常少量的坐标中。

方法:确保攻击只更新良性代理不太可能(不经常)更新的坐标,我们就可以维护模型中的后门并创建更强大的攻击。

算法1

  1. 攻击者从上一轮下载梯度,并使用它来近似下一轮的良性梯度。
  2. 攻击者计算良性梯度的 $top-k%$ 坐标并将其设置为约束集。
  3. 对于 PGD 的一些 epochs,攻击者在中毒数据集 $\hat{D}$ 上计算梯度更新,并将该梯度投影到约束集,即观察到的良性梯度的 $bottom-k%$ 坐标。
  4. PGD 逼近位于 $bottom-k%$ 坐标跨度内的最优解。

为什么有效?

神经毒素依赖于经验观察,即随机梯度的大部分范数位于少量的 “重击手” 坐标中。神经毒素用 top-k 启发式方法识别这些 “重击手”并避免它们。避免最有可能从良性设备接收大量更新的方向会减少后门被擦除的机会。

实验

任务

所有任务的实验参数

NLP任务的触发句和目标

指标和方法

攻击细节:在我们所有的实验中,攻击者控制了少量受感染的设备,并通过将中毒梯度上传到服务器来实施攻击。 我们使用固定频率攻击模型进行少发攻击。

少发攻击:攻击者仅参加 AttackNum 回合,这是回合总数的子集。AttackNum 量化了攻击者的实力。

固定频率攻击:攻击者在他们参与的每个迭代中只控制一个设备。

服务器防御:范数裁剪防御。

后门持久性指标:

定义3.1

实验结果

调整遮罩比率k对任务1的寿命的影响

三个触发器对任务1的影响

具有不同长度触发句的 LSTM 在 Reddit 数据集上的基线和神经毒素的攻击准确率

神经毒素对差分隐私防御的影响

重构损失检测防御

SparseFed

其他:

分析

Hessian 迹和顶部特征值已被证明与损失函数相对于模型权重的稳定性相关

较小的 Hessian 迹意味着模型对模型权重的扰动更稳定;并且较小的顶部特征值具有类似的含义。

Hessian迹和顶部特征值

总结

先前对 FL 后门攻击的研究表明,FL 协议很容易受到攻击。我们通过引入神经毒素来补充这一工作,神经毒素是一种攻击算法,它利用更新稀疏化来攻击未被充分代表的参数。我们根据经验评估了神经毒素对先前攻击的影响,我们发现,在大多数情况下,通过在现有攻击的基础上添加一行代码,它将先前工作的持久性提高了 2-5 倍。

优点

  1. 提高了攻击的持久性
  2. 增加了后门对再训练的鲁棒性
  3. 通过使用神经毒素,攻击者可以嵌入由单个单词触发的后门。(后门触发更容易?)