PartialFed: Cross-Domain Personalized Federated Learning via Partial Initialization
这篇论文《PartialFed: Cross-Domain Personalized Federated Learning via Partial Initialization》提出了一种新颖的个性化联邦学习方法,通过部分参数初始化来解决跨域数据异构性问题。以下是对论文的详细解读:
一、研究背景与动机
1. 联邦学习的问题
- 联邦学习(FL)通过在多个数据孤岛之间仅传递模型参数来保护数据隐私,但在数据异构(non-IID)情况下,尤其是跨域(如交通、航拍、室内图像)时,性能显著下降。
- 传统FedAvg方法试图拟合一个“平均客户端”,当本地数据分布与全局分布差异较大时效果不佳。
2. 本文核心贡献
- 提出PartialFed方法,客户端在初始化时只加载全局模型的一部分参数,其余参数从本地上一轮模型加载,实现混合初始化。
- 提出两种策略:
- PartialFed-Fix:基于人工先验的固定加载策略。
- PartialFed-Adaptive:自适应学习每个客户端的个性化加载策略。
- 在跨域分类和检测任务上达到最先进性能,且对极端分布偏移的客户端具有鲁棒性。
二、方法:PartialFed
1. 整体流程
- 与传统FL不同,客户端在每轮迭代中:
- 接收全局模型 (_t)。
- 从本地加载上一轮模型 (_{t-1}^c)。
- 使用混合初始化策略 (A_t^c) 组合全局和本地参数。
- 本地训练后上传模型,服务器使用FedAvg聚合。
2. PartialFed-Fix
基于网络结构的人工先验设计固定策略:
(1)自底向上 vs 自顶向下
- 自底向上:共享底层(低层特征提取器),私有化顶层。
- 自顶向下:共享顶层(分类器),私有化底层。
- 实验表明:
- 所有部分加载策略均优于全参数加载(FedAvg)。
- 共享底层策略通常优于共享顶层。
- 同时共享所有层(包括分类器)会损害性能。
(2)批归一化(BN)层
- 不加载全局BN层(即使用本地BN)能提升性能。
- 结合不加载全局分类器(fc)和BN层,性能提升显著(+4.88%)。
(3)跳跃加载
- 交替共享和私有化网络块(如“共享-私有-共享-私有”)。
- 实验表明跳跃加载策略(如ABCD、abcd)优于相邻块加载。
3. PartialFed-Adaptive
- 使用Gumbel-Softmax采样学习离散加载策略,使其可微分。
- 策略参数 (_t^c) 表示每个参数加载全局或本地模型的概率。
- 通过EM算法交替更新模型参数和策略参数。
- 支持不同粒度:阶段级、块级、层级。
三、实验设计与结果
1. 数据集
- Office-Home:4个域(艺术、剪贴画、产品、真实世界),65类,用于分类。
- UODB:11个域,不同领域、类别和数据量,用于检测。
2. 跨域分类结果(Office-Home)
- PartialFed-Fix(不加载BN和fc)比FedAvg提升4.88%。
- PartialFed-Adaptive(层级)比FedAvg提升5.43%,且在所有域上均优于单域训练。
- 自适应策略能自动调整加载行为,缓解分布偏移。
3. 跨域检测结果(UODB)
- PartialFed-Fix和Adaptive分别比FedAvg提升2.65%和2.68%。
- 在极端分布域(如医疗图像DeepLesion、人脸WiderFace、航拍DOTA)上表现尤其优异。
4. 策略分析
- 可视化显示:
- 所有域更倾向于共享低层知识。
- 高层(如fc)更倾向于私有化。
- 不同域根据自身分布特点调整策略(如Art域在训练初期更依赖全局fc)。
四、贡献总结
- 提出PartialFed框架:通过部分参数初始化实现个性化FL,最小化对原框架的改动。
- 设计固定与自适应策略:Fix策略基于人工先验,Adaptive策略自动学习客户端个性化需求。
- 在跨域分类和检测上实现SOTA:显著提升性能,尤其在分布异构严重的客户端上。
- 隐私保护:仅传递模型参数,支持同态加密等隐私增强技术。
五、未来方向
- 结合人工先验与自适应学习,提升策略学习效率。
- 扩展至更多任务和架构(如Transformer)。
- 在MindSpore等框架上部署。
如果有需要修改或者补充的地方,可以随时告诉我。