Few-Shot Learning (少样本学习)
了解少样本学习如何使 AI 能够以最少的数据进行调整,从而改变医疗诊断和野生动物保护等领域。
小样本学习 (FSL) 是 机器学习 的一个子领域,专注于构建仅从少量示例中就能推广到新概念的模型。传统的 深度学习 模型,尤其是在 计算机视觉 领域,通常需要大量的标记 训练数据 才能实现高性能。FSL 通过创建可以在低数据情况下有效学习的模型来应对数据稀缺的挑战,模仿人类从极少数实例中学习新对象或类别的能力。这使得它对于数据收集和 标注 成本高昂、耗时或根本不可能的应用来说非常宝贵。
小样本学习的工作原理
FSL背后的核心思想是利用来自大型多样化数据集的先验知识来快速学习新的相关任务。模型不是直接学习对特定类别进行分类,而是学习数据的更通用表示,或者学习如何比较数据点。常见的方法包括:
- 基于度量的学习: 这些方法学习距离函数或相似性度量,以比较一些标记的“支持”图像与未标记的“查询”图像。然后,将查询图像分配给最相似的支持图像的类别。这种方法的常见示例包括 Siamese 网络,它学习确定两个图像是否来自同一类别,以及原型网络,它学习度量空间中每个类别的原型表示。
- 基于优化的学习: 通常与元学习(或“学习学习”)相关联,这种方法训练模型本身的优化过程。目标是开发一种模型,该模型只需几个梯度下降步骤即可将其参数快速适应新任务。该领域中一种有影响力的算法是 与模型无关的元学习 (MAML)。
- 基于记忆的学习: 这些模型使用外部记忆组件来存储来自少量可用示例的信息。当出现新的示例时,模型会从其记忆中检索相关信息以进行预测。这在概念上类似于 k 近邻 (k-NN) 算法的工作方式。
Few-Shot Learning 与相关概念
区分少样本学习 (FSL) 与处理有限数据的其他学习范式非常重要:
- 零样本学习 (ZSL): ZSL 比 FSL 更极端,因为它要求模型识别在训练期间从未见过的类别,仅使用高级语义描述或属性。FSL 至少需要一个示例,而 ZSL 则不需要。
- One-Shot Learning (OSL): OSL 是 FSL 的一个特定变体,其中为每个新类提供了一个带标签的示例。 它代表了 few-shot 框架中最具挑战性的场景。
- 迁移学习: FSL 是迁移学习的一种形式,但两者并不完全相同。传统的迁移学习通常涉及采用在大型数据集(如 ImageNet)上预训练的模型,然后在较小的新数据集上对其进行微调。FSL 专门为新数据集非常小(例如,每个类别的示例少于 10 个)的场景而设计。您可以在我们的模型训练文档中探索诸如 Ultralytics YOLO11之类的模型如何使用预训练权重进行迁移学习。
实际应用
在数据稀缺的专业领域,小样本学习尤其有用。
- 医学影像中的罕见疾病诊断: 对于罕见疾病,收集数千张患者扫描图像用于 模型训练 通常是不可行的。借助 FSL,可以使用少量确诊病例来调整在大型常见医学图像数据集上预训练的模型,以识别罕见疾病的迹象。这加速了 医学图像分析 诊断工具的开发。
- 工业缺陷检测: 在制造业中,新的产品线可能具有独特且不常见的缺陷。无需暂停生产来收集数千个缺陷示例,可以使用少量样本快速训练用于对象检测的 FSL 模型,以实现质量控制自动化,从而提高效率并减少浪费。 诸如Ultralytics HUB之类的平台可以帮助管理此类专门的数据集并加速模型部署。
挑战和未来方向
尽管FSL前景广阔,但也面临着重大挑战。主要的障碍是防止过拟合,因为模型很容易记住少数示例,而不是学习泛化。模型的性能也可能对所提供的支持示例的质量和代表性高度敏感。
包括斯坦福大学、Google AI和Meta AI等机构正在进行的研究,专注于创建更强大的元学习算法,并更好地利用无监督或自监督学习技术进行预训练。结合这些方法旨在构建更灵活和数据高效的人工智能系统,从而突破数据受限环境中的可能性。像PyTorch和TensorFlow这样的高级框架为研究人员探索这些前沿方法提供了必要的工具。