
学位论文简介
联邦学习作为一种新兴的分布式机器学习框架,允许客户端在保障数据安全的前提下进行协同训练共享模型。在严格保障数据主权与隐私的同时,实现分布式数据价值的有效聚合,为构建安全、可信与高效的协同智能系统提供了关键技术路径。然而,在实际应用中,联邦学习面临数据层、应用层与系统层的多重异构与安全约束挑战,导致训练过程不稳定及模型性能严重退化。在数据层,客户端之间的数据非独立同分布及类别失衡问题,以及隐私保护机制引入的噪声扰动,极大地削弱了模型的判别能力;在应用层,客户端对个性化模型的需求与系统对拜占庭攻击的防御存在冲突,难以在实现精准建模的同时保障鲁棒性;在系统层,计算与通信资源的动态异构性不仅形成了效率瓶颈,更在异步机制下诱发了低质量更新破坏全局模型的风险。这些多源约束相互耦合,严重制约了联邦学习在复杂场景中的可靠落地与规模化应用。为应对上述挑战,本文从数据层、应用层与系统层三个维度出发,面向安全与异构约束的联邦学习关键技术展开系统性研究,主要研究内容与创新点如下:
(1)提出了一种基于生成式数据均衡与客户端权重平衡的多阶段联邦学习方法BM-FL。首先,设计改进拉普拉斯差分隐私机制,以降低满足隐私约束的效用损失;其次,构建类别平衡生成对抗网络,通过在本地生成高质量均衡样本,以缓解客户端之间的数据分布偏差;最后,设计基于损失反馈的动态客户端权重平衡策略,自适应量化客户端贡献。实验结果表明,该方法在严格隐私预算下,显著提升全局模型在高度非独立同分布且类别不平衡场景中的性能与收敛速度。
(2)提出了一种基于双循环知识共享的个性化鲁棒联邦学习方法PRFL。该方法通过多层模型相似度度量与双阈值过滤机制,实现对拜占庭客户端的精准识别与物理隔离;创新性地借助旅行商问题构建联邦子集内以及联邦子集间的知识共享路径,提升知识的传播效率;并构建内外双循环的知识共享框架,通过动态加权知识蒸馏技术,使得全局泛化知识、子集共性知识与本地个性化知识的深度融合。实验结果表明,该方法在多类恶意攻击场景下展现出卓越的抗干扰能力与个性化适配性能。
(3)提出了一种基于客户端质量感知的异步原型联邦学习方法APFL。该方法创新地引入类别原型作为轻量化知识载体,并设计了基于原型离散度的质量感知指标,用以量化本地模型的类间可分性与可靠度;在服务器端依据该指标进行归一化异步聚合,有效过滤低质更新;同时,在客户端引入原型一致性约束,校正由异步通信滞后引起的“模型漂移”。实验结果表明,该方法在极端系统异构场景下显著降低通信负载,并保持稳定的模型性能。
主要学术成果
Lixiang Yuan, Siyang Yu, Zhibang Yang, Mingxing Duan, Kenli Li. A Data Balancing Approach Based on Generative Adversarial Network[J]. Future Generation Computer Systems, 2023, 141: 768-776. (第一作者,CCF C类期刊)
Lixiang Yuan, Mingxing Duan, Guoqing Xiao, Zhuo Tang, Kenli Li. BM-FL: A Balanced Weight Strategy for Multi-Stage Federated Learning Against Multi-Client Data Skewing[J]. IEEE Transactions on Knowledge and Data Engineering, 2024, 36(9): 4486-4498. (第一作者,CCF A类期刊)
Lixiang Yuan, Jiapeng Zhang, Mingxing Duan, Guoqing Xiao, Zhuo Tang, Kenli Li. PRFL: Personalized and Robust Federated Learning for Non-IID Data with Malicious Participants[J]. IEEE Transactions on Mobile Computing, 2025. (第一作者, CCF A类期刊)
Lixiang Yuan, Jiapeng Zhang, Mingxing Duan, Guoqing Xiao, Zhuo Tang, Kenli Li. Prototype-Based Quality-Aware Asynchronous Federated Learning for System and Data Heterogeneity[J]. IEEE Transactions on Mobile Computing. (第一作者,CCF A类期刊, 在审)