
学位论文简介
联邦学习作为一种新兴的分布式机器学习框架,允许客户端在保障数据安全的前提下进行协同训练共享模型。在严格保障数据主权与隐私的同时,实现分布式数据价值的有效聚合。然而,在实际应用中,联邦学习面临数据层、应用层与系统层的多重异构与安全约束挑战,导致训练过程不稳定及模型性能严重退化。在数据层,客户端之间的数据非独立同分布及类别失衡问题,以及隐私保护机制引入的噪声扰动,极大地削弱了模型的判别能力;在应用层,客户端对个性化模型的需求与系统对拜占庭攻击的防御存在冲突,难以在实现精准建模的同时保障鲁棒性;在系统层,计算与通信资源的动态异构性不仅形成了效率瓶颈,更在异步机制下诱发了低质量更新破坏全局模型的风险。这些多源约束相互耦合,严重制约了联邦学习在复杂场景中的可靠落地与规模化应用。为应对上述挑战,本文从数据层、应用层与系统层三个维度出发,面向安全与异构约束的联邦学习关键技术展开系统性研究,主要创新成果如下:
(1) 针对隐私噪声与数据非独立同分布且类别不平衡叠加导致的模型性能退化问题,提出了一种基于生成式数据均衡与客户端权重平衡的多阶段联邦学习方法BM-FL。通过面向效用的 Laplace 差分隐私噪声缓解策略降低数据效用损失;构建类别平衡生成对抗网络缓解数据分布偏差;设计损失反馈权重平衡策略量化客户端贡献。
(2) 针对客户端个性化需求与恶意攻击共存的复杂环境,提出了一种基于双循环知识共享的个性化鲁棒联邦学习方法PRFL。该方法通过多层模型相似度度量与双阈值过滤机制,实现拜占庭客户端的精准识别与物理隔离;构建内外双循环的知识共享框架,实现全局知识的深度融合。
(3) 针对系统异构与异步训练中更新质量难以评估与高效训练难题,提出了一种基于客户端质量感知的异步原型联邦学习方法APFL。通过设计离散度质量感知指标量化模型的类间可分性;在服务器端执行客户端筛选与加权异步聚合,在客户端引入原型一致性约束,实现高效高质训练。
主要学术成果
[1] Lixiang Yuan, Siyang Yu, Zhibang Yang, Mingxing Duan, Kenli Li. A Data Balancing Approach Based on Generative Adversarial Network[J]. Future Generation Computer Systems, 2023, 141: 768-776. (第一作者,CCF C类期刊)
[2] Lixiang Yuan, Mingxing Duan, Guoqing Xiao, Zhuo Tang, Kenli Li. BM-FL: A Balanced Weight Strategy for Multi-Stage Federated Learning Against Multi-Client Data Skewing[J]. IEEE Transactions on Knowledge and Data Engineering, 2024, 36(9): 4486-4498. (第一作者,CCF A类期刊)
[3] Lixiang Yuan, Jiapeng Zhang, Mingxing Duan, Guoqing Xiao, Zhuo Tang, Kenli Li. PRFL: Personalized and Robust Federated Learning for Non-IID Data with Malicious Participants[J]. IEEE Transactions on Mobile Computing, 2025. (第一作者, CCF A类期刊)
[4] Lixiang Yuan, Jiapeng Zhang, Mingxing Duan, Guoqing Xiao, Zhuo Tang, Kenli Li. Prototype-Based Quality-Aware Asynchronous Federated Learning for System and Data Heterogeneity[J]. IEEE Transactions on Mobile Computing. (第一作者,CCF A类期刊, 在审)