Meta-Transfer Learning for Few-Shot Learning
这篇论文《Meta-Transfer Learning for Few-Shot Learning》(Sun 等,2019)提出了一种创新的元迁移学习框架,旨在解决小样本学习中的关键挑战。以下是对论文的详细解读:
一、研究背景与动机
1. 小样本学习的问题
- 深度学习在大规模标注数据上表现优异,但在小样本场景下(如每类只有1-5个样本)容易过拟合。
- 人类能够快速学习新概念,而机器模型在此方面仍有显著差距。
2. 现有方法的局限
- 元学习方法(如MAML)通过多个任务学习快速适应,但存在两大局限:
- 需要大量相似任务进行元训练,计算成本高。
- 通常使用浅层网络(如4层CNN)以避免过拟合,限制了模型表达能力。
3. 本文核心贡献
- 提出 Meta-Transfer Learning:
- Transfer:利用大规模预训练的深度网络权重。
- Meta:通过元学习训练轻量级的 Scaling & Shifting 操作,调整神经元激活以适应小样本任务。
- 提出 Hard Task Meta-Batch 策略,通过在线选择困难任务加速收敛并提升性能。
- 在多个基准数据集上达到最先进性能。