近日,我院教师张佳乐副教授与硕士生朱诚诚等师生在网络与信息安全领域顶级期刊《IEEE Transactions on Dependable and Secure Computing》发表了题为“BadCleaner: Defending Backdoor Attacks in Federated Learning Via Attention-Based Multi-Teacher Distillation”的研究论文(https://ieeexplore.ieee.org/document/10399805)。

作为一种保护隐私的分布式学习范式,联邦学习(FL)已被证明容易受到各种攻击的威胁,其中后门攻击是最具危害性的安全威胁之一。在后门攻击中,恶意用户试图将后门触发器嵌入本地模型,导致嵌入后门触发器的输入被误分类为攻击者指定的标签。为了解决这个问题,本研究提出了一种通过基于注意力的联邦多教师蒸馏实现的无损且高效的后门防御方案BadCleaner。BadCleaner可以通过从多个教师中提炼知识,仅使用少量未标记的干净数据即可有效调整已嵌入后门的全局模型。为了彻底消除模型中隐藏的后门模式,我们引入一种注意力迁移机制,以减轻模型对后门触发区域的关注。大量的实验表明,BadCleaner可以降低先进的后门攻击的成功率,而不会损害模型的精度。
《IEEE Transactions on Dependable and Secure Computing》是公认的网络与信息安全领域的顶级期刊,也是中国计算机学会推荐的A类期刊。