答辩公告
我的位置在: 首页 > 答辩公告 > 正文
习鹏博士生预答辩公告
浏览次数:日期:2025-04-23编辑:

学位论文简介

随着深度学习在各个领域的广泛应用,模型安全问题逐渐引起了研究者的高度关注。后门攻击作为一种常见的安全威胁,能够通过在训练过程中注入恶意数据或修改模型参数,导致模型在正常情况下表现良好,但在特定触发条件下却表现异常,从而对系统安全性造成严重影响。传统的后门防御方法往往侧重于减少攻击成功率或确保主任务精度,但随着应用场景的复杂化,单纯的防御策略已无法满足实际需求。因此,本文旨在研究不同训练范式下的后门攻击问题,并提出相应的防御策略。

1提出了一种基于自训练的集中式后门鲁棒性提升方案。通过对训练集进行筛选,提取出干净数据并训练正常模型,再对带触发器的后门数据进行伪标签标注,并将其加入训练集进行微调,从而提高模型对后门数据的识别能力。实验结果表明,该方法能够显著提高分类准确性,并有效降低后门攻击的成功率。

2针对联邦学习中客户端非独立同分布(Non-IID)情况下,服务器难以有效抵御后门攻击的问题,提出了一种基于参数时序连续性的鲁棒性聚合方案。通过利用客户端上传参数的时序连续性,结合动态特征提取器,能够有效地区分良性客户端和恶意客户端,提升联邦学习系统的鲁棒性。

3针对拆分学习中的后门攻击,提出了一种基于任务扰动的后门攻击检测方案。通过对任务目标进行扰动,检测服务器是否执行后门任务,从而发现并防御服务器端发起的后门攻击。该检测方案计算开销低,能够在训练早期快速发现潜在攻击。

4设计了一种基于中间激活值修改的隐蔽性拆分后门攻击方案。通过在服务器端修改中间激活值,攻击者能够同时使客户端模型在主任务和后门任务上进行优化,实现隐蔽性和高攻击成功率的平衡,揭示了拆分学习在后门攻击面前的潜在脆弱性。

主要学术成果

  1. Xi Peng,  Peng Shaoliang,Tang Wwenjuan. IBAS:Imperceptible Backdoor Attacks in Split Learning with Limited Information[C]//2025 Proceedings of the AAAI Conference on Artificial Intelligence, 2025.(CCF-A会议第一作者)

  2. Xi Peng, Tang W, Xie K, et al. RobustHealthFL: Robust Strategy Against Malicious Clients in Non-iid Healthcare Federated Learning[C]//2023 IEEE International Conference on Bioinformatics and Biomedicine (BIBM). IEEE, 2023: 1545-1552. (CCF-B会议第一作者)

  3. Xi Peng, Zhang Xinglong, Wang Lian, et al. A review of Blockchain-based secure sharing of healthcare data[J]. Applied Sciences, 2022, 12(15): 7912. (JCR Q1第一作者)

  4. Xi Peng, Tang WenJuan, Peng Shaoliang. Fighting Fire with Fire: Medical AI Models Defend Against Backdoor Attacks via Self-learning[C]//International Symposium on Bioinformatics Research and Applications. Singapore: Springer Nature Singapore, 2024: 347-358. (CCF-C会议第一作者)