问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

从少数示例中泛化:介绍小样本学习(Few-shot Learning,FSL)

创作时间:
作者:
@小白创作中心

从少数示例中泛化:介绍小样本学习(Few-shot Learning,FSL)

引用
1
来源
1.
https://cloud.tencent.com/developer/article/2420971

小样本学习(Few-shot Learning,FSL)是研究如何利用少量样本数据训练出性能优良的模型的方法论集合,是一种研究方向,涵盖了多种学习方法。本文将从FSL的核心问题、研究方法、与其他学习问题的比较、错误分解分析、解决方案以及未来研究方向等多个维度进行详细阐述。

FSL的核心问题

FSL是一种有前景的机器学习范式,它专门处理训练集中只有少量带标签样本的情况。核心问题在于经验风险最小化器的不可靠性,这使得在小样本场景下学习变得困难。利用先验知识,FSL方法可以从数据、模型和算法三个维度来有效解决前述核心问题。

FSL的研究方法

论文首先明确了FSL的正式定义,并详细区分了FSL与其他相关机器学习问题之间的差异。通过错误分解分析,作者揭示了小样本监督学习的核心问题。对现有的FSL工作进行了全面的文献回顾,并根据如何利用先验知识处理核心问题,从数据、模型和算法三个视角对FSL方法进行了分类。

FSL与其他相关机器学习问题的比较

  1. 定义:FSL是一种机器学习问题,其中目标任务(T)的训练集(E)只包含少量的监督信息样本。这与典型的机器学习应用不同,后者通常需要大量的监督信息样本。

  2. 经验风险最小化:在FSL中,由于训练样本数量很少,经验风险最小化器(即基于训练数据优化的模型)可能不可靠,这与在大数据集上进行学习的情况不同。

  3. 先验知识的作用:FSL特别强调利用先验知识来解决核心问题,即在少量样本情况下如何有效地学习和泛化。先验知识可以来自多种来源,包括但不限于多任务学习、嵌入学习、外部记忆和生成式建模。

  4. 与相关学习问题的比较

  • 弱监督学习:处理的是包含弱监督信息(如不完整、不准确或噪声标签)的经验 E,而 FSL 专注于使用少量的监督信息样本。
  • 不平衡学习:处理的是经验 E 中标签 y 的分布不均衡的问题,而 FSL 关注的是即使在其他类别的样本数量很少的情况下,如何对少数类别进行有效学习。
  • 迁移学习:涉及将从一个领域或任务学到的知识迁移到另一个领域或任务,而 FSL 是在目标任务上只有少量样本的情况下进行学习。
  • 元学习(Meta-learning):学会学习,通过跨任务学习来提高新任务的性能,FSL 可以视为元学习的一个应用场景,特别是在处理少量样本时。
  1. 问题设置:FSL 问题设置通常涉及 N-way K-shot 分类,即每个类别有 K 个样本,共有 N 个类别。这种设置在其他类型的机器学习问题中不常见。

  2. 挑战:FSL 面临的挑战是在少量样本上学习到泛化能力强的模型,这在传统的机器学习问题中不作为主要考虑。

错误分解分析

论文采用了以下步骤来识别和解释 FSL 中的关键问题:

  1. 期望风险与经验风险:首先,论文区分了期望风险(expected risk)和经验风险(empirical risk)。期望风险是模型在所有可能输入上的平均损失,而经验风险是模型在训练集上的平均损失。在机器学习中,由于真实的数据分布是未知的,通常使用经验风险作为优化目标。

  2. 风险最小化:在数据量充足的情况下,可以通过经验风险最小化(Empirical Risk Minimization,ERM)来找到一个近似最优的模型。然而,在 FSL 问题中,由于训练样本数量有限,经验风险可能无法很好地代表期望风险。

  3. 错误分解:论文利用错误分解(error decomposition)的概念来进一步分析问题。总误差可以分解为近似误差(approximation error)和估计误差(estimation error)两部分。近似误差衡量假设空间(hypothesis space)中函数与真实函数之间的差异,而估计误差衡量由于使用经验风险代替期望风险而导致的误差。

  4. 小样本问题的核心:在 FSL 中,由于训练样本数量很少,即使模型的近似误差很小,估计误差也可能很大。这意味着,即使模型在训练集上表现良好,它在未见过的测试集上的性能也可能很差。这种现象称为过拟合(overfitting),其中经验风险最小化器(ERM)在小样本情况下变得不可靠。

  5. 核心问题的指出:因此,FSL 的核心问题在于经验风险最小化器在小样本情况下不可靠。这是因为在小样本限制下,模型很容易对训练数据中的噪声和特例过度敏感,从而导致过拟合。

通过上述分析,论文明确了小样本学习问题的核心挑战,并为如何利用先验知识来解决这一挑战提供了理论基础。具体来说,FSL 方法可以通过增加训练样本数量(数据视角)、减小假设空间的复杂性(模型视角),或改进搜索最佳假设的算法(算法视角)来应对这一核心问题。得出的结果总结为:

  • 数据视角:使用先验知识增强训练数据,以获得更可靠的经验风险最小化器。
  • 模型视角:利用先验知识减小假设空间的大小,使得在少量样本下也能学习到可靠的模型。
  • 算法视角:使用先验知识改变搜索最佳假设的策略,如提供良好的初始化参数或直接学习优化器。

结论与未来方向

FSL作为一种关键技术,有助于缩小AI与人类学习之间的差距。通过整合先验知识,它使机器学习模型在有限的监督信息下也能学习和泛化到新任务。论文还探讨了FSL在未来研究方向,包括问题设置、技术、应用和理论等方面的潜力。

研究局限性:

  • 论文中提及的FSL方法多依赖于人为设计的假设空间和搜索策略,这在一定程度上限制了其通用性和灵活性。
  • 目前,多数FSL方法假定任务源自单一的任务分布,但在实际情境中,任务间的相关性可能并不明确或难以预测。
  • 关于动态任务分布以及多模态信息在FSL中的潜在应用,当前研究尚显不足,需要进一步的探索和研究。

后续研究方向建议:

  • 研究在设计FSL方法时如何利用多模态信息,从而提供具有互补视角的先验知识。
  • 探讨将自动化机器学习(AutoML)方法应用于FSL中,旨在实现更加经济、高效和有效的算法设计。
  • 分析FSL算法在动态任务分布下的收敛性,并研究如何有效避免灾难性遗忘。
  • 对FSL的样本复杂度进行理论探讨,同时深入探索FSL与领域适应之间的潜在联系。

参考论文:Wang, Y., Yao, Q., Kwok, J. T., & Ni, L. M. (2020). Generalizing from a few examples: A survey on few-shot learning. ACM computing surveys (csur), 53(3), 1-34.

© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号