术语表

少量学习

了解 "少量学习 "如何使人工智能能够利用最少的数据进行调整,从而改变医疗诊断和野生动物保护等领域。

使用Ultralytics HUB 对YOLO 模型进行简单培训

了解更多

少量学习(Few-Shot Learning,FSL)是机器学习(Machine Learning,ML)的一个子领域,专注于设计能够从每类极少量训练示例(通常只有几个)中泛化的模型。这与传统的深度学习(DL)方法形成了鲜明的对比,后者通常需要大量的标注训练数据。其核心思想受到人类学习的启发,在人类学习中,我们通常只需看到一两个实例就能识别新概念。在数据收集昂贵、耗时或固有限制的领域,FSL 尤为重要,它使人工智能(AI)更具适应性和数据效率。

快速学习如何运作

快速学习技术旨在利用先前的知识,从有限的数据中快速学习新概念。常见的策略包括

  • 元学习: 元学习通常被描述为 "学会学习",包括在元训练阶段对模型进行各种学习任务的训练。这样,模型就能学习到高效的学习算法或初始参数,从而在实例较少的情况下快速适应新任务。为此,已经开发了几种元学习算法
  • 迁移学习:FSL 通常利用迁移学习,从在大型数据集(如ImageNetCOCO)上预先训练好的模型开始。这种预训练模型已经了解大型数据集的一般特征,然后利用少量可用示例针对特定目标任务进行微调。这种方法充分利用了模型权重中蕴含的一般知识。
  • 数据扩充:使用数据扩增技术生成为数不多的可用训练样本的变体,有助于扩展有限的数据集,但在数据量极少的情况下,其效果可能会有所不同。可能需要高级扩增策略

这些方法使神经网络 (NN)即使在特定任务数据极少的情况下也能实现合理的性能。

快速学习与相关概念的比较

必须将 FSL 与类似的学习范式区分开来:

  • 零点学习(Zero-Shot Learning,ZSL)ZSL 的目的是对训练过程中从未见过的类别中的实例进行分类。这通常是通过使用辅助信息来实现的,例如未见类别的文字描述或属性,以弥补已见数据与未见数据之间的差距。与此相反,FSL 要求每个新类至少有几个标注示例。对 ZSL、FSL 和迁移学习的概述可以提供进一步的背景信息。
  • 单次学习(OSL)OSL 是 FSL 的一个极端变体,在这种情况下,模型必须仅从一个标注示例中学习识别一个新类别。它与 FSL 的目标相同,但在运行时受到更严格的数据限制。
  • 迁移学习虽然 FSL 经常使用迁移学习作为一种技术,但这两个术语不能互换。迁移学习是一个更广泛的概念,涉及利用源任务的知识来提高目标任务的性能。当目标任务中的标注数据极其有限时,FSL 专门解决了如何有效学习的难题。

少拍学习的应用

在无法或不可能获得大型数据集的情况下,FSL 可使人工智能应用成为可能:

  • 罕见疾病诊断:医学图像分析中,获取大量罕见疾病实例来训练诊断模型具有挑战性。FSL 可以让模型学会从一小部分患者图像中识别这类疾病(如扫描中的特定类型肿瘤),从而有可能加快诊断和研究。这是人工智能在医疗保健领域的一个关键领域,相关研究发表在《放射学》等期刊上:人工智能
  • 定制物体检测:考虑需要一个物体检测模型来识别生产线上新设计的产品或野生动物保护镜头中的稀有物种。获取数千张标记图像可能是不可行的。FSL 允许训练自定义模型,例如调整一个 Ultralytics YOLO模型,每个新对象类别只需少量示例。这加快了专业计算机视觉(CV)任务的部署速度。
  • 低资源语言翻译:为数字文本有限的语言训练翻译模型需要自然语言处理 (NLP) 中的 FSL 技术。
  • 机器人:让机器人(Robotics)在极少接触的基础上快速学会识别陌生环境中的新物体并与之互动是另一项应用,在国际机器人大会 ICRA)等会议上展示的研究对这一应用进行了探讨。

挑战与未来方向

尽管 FSL 前景广阔,但它也面临着挑战,包括模型对所提供的少数特定示例的敏感性,以及确保在这些示例之外的强大泛化能力。利用如此有限的数据克服过度拟合是一个重大障碍。目前的研究重点是开发更强大的元学习算法,更好地利用无监督学习自监督学习进行预训练,以及创建理论框架来理解低数据环境下的泛化。Google 人工智能(Google AI)和元人工智能(Meta AI)等机构积极推动 FSL 技术的发展,旨在使人工智能系统更加灵活,对数据的需求更少。

阅读全部