这篇论文《FedAffect: Few-shot federated learning for facial expression recognition》提出了一种面向面部表情识别小样本联邦学习框架,旨在解决现实世界中面部数据隐私敏感、标注稀缺的问题。以下是对该论文的详细解析:


一、研究背景与动机

1. 问题定义

  • 面部表情识别 在人机交互、情感计算中具有重要价值。
  • 传统方法依赖大规模标注数据,但在现实中:
    • 面部数据隐私敏感,难以集中收集;
    • 标注成本高,用户设备上仅有少量标注数据;
    • 数据分布差异大,模型容易过拟合,泛化能力差。

2. 联邦学习的潜力与挑战

  • 潜力:FL 允许在不上传数据的情况下协同训练模型。
  • 挑战
    • 用户设备上大多为未标注数据
    • 每轮训练中仅有少量标注数据可用
    • 直接使用传统监督学习在 FL 中收敛慢、效果差。

二、FedAffect 框架设计

FedAffect 是一个双模型联邦学习框架,包含两个并行的学习流程:

Read more »

这篇论文《Agnostic Federated Learning》(不可知联邦学习)由 Google Research 的 Mehryar Mohri、Gary Sivek 和 Ananda Theertha Suresh 撰写,提出了一种新的联邦学习框架,旨在解决传统联邦学习中对目标分布假设过强、可能导致模型在真实测试环境中表现不佳的问题。以下是对该论文的详细解释:


一、研究背景与动机

1. 传统联邦学习的缺陷

  • 传统联邦学习假设目标分布是客户端分布的加权平均(即均匀分布 ( = _k _k))。
  • 但实际上,测试时的数据分布可能与训练时的分布不一致,导致模型在真实场景中表现不佳。
  • 这种不一致可能源于:
    • 客户端参与训练的不确定性(如设备是否联网、是否充电);
    • 不同客户端数据分布的差异;
    • 目标用户群体与训练用户群体的不匹配。

2. 提出的新框架:Agnostic Federated Learning (AFL)

  • AFL 不假设目标分布是已知的均匀分布,而是假设目标分布是客户端分布的任意混合
  • 目标是最小化最坏情况下的期望损失,即: [ {}(h) = {} {}(h) ] 其中 (= _{k=1}^p _k _k),(_p) 是混合权重的集合。

二、理论贡献

1. 泛化界限(Generalization Bounds)

Read more »

这篇论文《Communication-Efficient Learning of Deep Networks from Decentralized Data》是联邦学习领域的奠基性工作,由 Google 团队在 2017 年发表。文中首次系统性地提出了“联邦学习”这一概念,并给出了一个简单而有效的算法 FederatedAveraging,为解决在分布式、隐私敏感数据上训练深度学习模型的问题提供了可行方案。以下是对该论文的详细解析:


一、研究背景与动机

1. 问题定义

  • 数据分布在移动设备上,具有隐私敏感性、大规模、非中心化等特点。
  • 传统中心化训练不适用:将数据上传到数据中心训练既侵犯隐私,也面临通信和存储成本高的问题。

2. 联邦学习的定义与优势

  • 联邦学习:在多个客户端(如手机)上本地训练模型,仅将模型更新(而非原始数据)发送到服务器进行聚合。
  • 优势
    • 隐私保护:数据不出本地;
    • 符合“数据最小化”原则;
    • 降低中心化存储风险。

3. 联邦优化 vs 传统分布式优化

联邦优化具有以下特点: - Non-IID:每个客户端的数据分布不同; - Unbalanced:不同客户端数据量差异大; - Massively distributed:客户端数量远大于每个客户端的数据量; - Limited communication:客户端通信受限(带宽低、不稳定)。


Read more »