中毒攻击
- 目标攻击
在有针对性的攻击中,对手希望模型只对一组选定的样本进行错误分类,对其在主要任务上的性能影响最小。这种有针对性的攻击也称为后门攻击。 - 非目标攻击
在非目标攻击中,对抗性任务是使模型收敛到次优最小值或使模型完全发散。 这种攻击也被称为收敛攻击,在某种程度上,它们很容易通过观察模型在验证数据上的准确性来检测。
中毒攻击
- 数据中毒
向节点添加恶意样本或错误样本,如标签反转 - 模型中毒
通过控制少数节点,向服务器更新错误或者恶意的参数,即可以达到影响全局模型性能与收敛的效果
后门攻击
- 语义攻击
- 木马攻击
后门攻击防御分类:
- 异常更新检测:FoolsGold,光谱异常检测,Flguard 等
- 鲁棒的联邦学习:裁剪模型权重和注入噪声,基于反馈的联邦学习,CRFL 等
- 后门模型恢复:在训练后修复后门全局模型
未来的研究方向:
- 后门攻击:
- 针对纵向联邦学习的后门攻击
- 设计隐形的后门攻击
- 综合考虑环境因素,设计出更有效、更具物理实用性的攻击后门
- 触发器的选择
- 后门攻击防御:
- 保持模型的准确性和保护隐私
- 为未来的其他任务(如语音、文本)设计防御策略
- 多触发后门攻击和无目标后门攻击的防御
- 修复后门模型
经典文献
攻击
数据中毒
- Attack of the tails: Yes, you really can backdoor federated learning(单触发器)
- DBA: Distributed backdoor attacks against federated learning(多触发器)
模型中毒
- How to backdoor federated learning(模型替换)
- Analyzing federated learning through an adversarial lens
- Local model poisoning attacks to Byzantine-robust federated learning
防御
异常更新检测
- Mitigating sybils in federated learning poisoning = The Limitations of Federated Learning in Sybil Settings(FoolsGold)
- Learning to detect malicious clients for robust federated learning(降维-变分自动编码器-光谱异常检测)
- Data Poisoning Attacks Against Federated Learning Systems(降维-PCA)
健壮的联合训练
- Can you really backdoor federated learning?(范数裁剪+噪声)
- BaFFLe: Backdoor detection via feedback-based federated learning(反馈)
- CRFL: Certifiably robust federated learning against backdoor attacks(认证)
- Meta Federated Learning(修改协议过程-分组聚合)
- Secure Partial Aggregation: Making Federated Learning More Robust for Industry 4.0 Applications(修改协议过程-限制模型更新上传比例)
- Flguard: Secure and private federated learning = FLAME: Taming Backdoors in Federated Learning(综合运用多种技术-两层防御-适用多触发)
后门模型恢复
- Mitigating backdoor attacks in federated learning(训练后防御)