PartialFed: Cross-Domain Personalized Federated Learning via Partial Initialization

这篇论文《PartialFed: Cross-Domain Personalized Federated Learning via Partial Initialization》提出了一种新颖的个性化联邦学习方法,通过部分参数初始化来解决跨域数据异构性问题。以下是对论文的详细解读:


一、研究背景与动机

1. 联邦学习的问题

  • 联邦学习(FL)通过在多个数据孤岛之间仅传递模型参数来保护数据隐私,但在数据异构(non-IID)情况下,尤其是跨域(如交通、航拍、室内图像)时,性能显著下降。
  • 传统FedAvg方法试图拟合一个“平均客户端”,当本地数据分布与全局分布差异较大时效果不佳。

2. 本文核心贡献

  • 提出PartialFed方法,客户端在初始化时只加载全局模型的一部分参数,其余参数从本地上一轮模型加载,实现混合初始化
  • 提出两种策略:
    • PartialFed-Fix:基于人工先验的固定加载策略。
    • PartialFed-Adaptive:自适应学习每个客户端的个性化加载策略。
  • 在跨域分类和检测任务上达到最先进性能,且对极端分布偏移的客户端具有鲁棒性。

二、方法:PartialFed

1. 整体流程

  • 与传统FL不同,客户端在每轮迭代中:
    • 接收全局模型 (_t)。
    • 从本地加载上一轮模型 (_{t-1}^c)。
    • 使用混合初始化策略 (A_t^c) 组合全局和本地参数。
    • 本地训练后上传模型,服务器使用FedAvg聚合。

2. PartialFed-Fix

基于网络结构的人工先验设计固定策略:

(1)自底向上 vs 自顶向下

  • 自底向上:共享底层(低层特征提取器),私有化顶层。
  • 自顶向下:共享顶层(分类器),私有化底层。
  • 实验表明:
    • 所有部分加载策略均优于全参数加载(FedAvg)。
    • 共享底层策略通常优于共享顶层。
    • 同时共享所有层(包括分类器)会损害性能。

(2)批归一化(BN)层

  • 不加载全局BN层(即使用本地BN)能提升性能。
  • 结合不加载全局分类器(fc)和BN层,性能提升显著(+4.88%)。

(3)跳跃加载

  • 交替共享和私有化网络块(如“共享-私有-共享-私有”)。
  • 实验表明跳跃加载策略(如ABCD、abcd)优于相邻块加载。

3. PartialFed-Adaptive

  • 使用Gumbel-Softmax采样学习离散加载策略,使其可微分。
  • 策略参数 (_t^c) 表示每个参数加载全局或本地模型的概率。
  • 通过EM算法交替更新模型参数和策略参数。
  • 支持不同粒度:阶段级、块级、层级。

三、实验设计与结果

1. 数据集

  • Office-Home:4个域(艺术、剪贴画、产品、真实世界),65类,用于分类。
  • UODB:11个域,不同领域、类别和数据量,用于检测。

2. 跨域分类结果(Office-Home)

  • PartialFed-Fix(不加载BN和fc)比FedAvg提升4.88%。
  • PartialFed-Adaptive(层级)比FedAvg提升5.43%,且在所有域上均优于单域训练。
  • 自适应策略能自动调整加载行为,缓解分布偏移。

3. 跨域检测结果(UODB)

  • PartialFed-Fix和Adaptive分别比FedAvg提升2.65%和2.68%。
  • 在极端分布域(如医疗图像DeepLesion、人脸WiderFace、航拍DOTA)上表现尤其优异。

4. 策略分析

  • 可视化显示:
    • 所有域更倾向于共享低层知识。
    • 高层(如fc)更倾向于私有化。
    • 不同域根据自身分布特点调整策略(如Art域在训练初期更依赖全局fc)。

四、贡献总结

  1. 提出PartialFed框架:通过部分参数初始化实现个性化FL,最小化对原框架的改动。
  2. 设计固定与自适应策略:Fix策略基于人工先验,Adaptive策略自动学习客户端个性化需求。
  3. 在跨域分类和检测上实现SOTA:显著提升性能,尤其在分布异构严重的客户端上。
  4. 隐私保护:仅传递模型参数,支持同态加密等隐私增强技术。

五、未来方向

  • 结合人工先验与自适应学习,提升策略学习效率。
  • 扩展至更多任务和架构(如Transformer)。
  • 在MindSpore等框架上部署。

如果有需要修改或者补充的地方,可以随时告诉我。