少量学习
了解 "少量学习 "如何使人工智能能够利用最少的数据进行调整,从而改变医疗诊断和野生动物保护等领域。
少量学习(Few-Shot Learning,FSL)是机器学习的一个子领域,其重点是建立能够从少量示例中归纳出新概念的模型。传统的深度学习模型,尤其是计算机视觉模型,通常需要大量标注的训练数据才能实现高性能。FSL 通过创建能在低数据情况下有效学习的模型,模仿人类从极少数实例中学习新对象或类别的能力,解决了数据稀缺的挑战。这使得它在数据收集和标注昂贵、耗时或根本不可能的应用中显得弥足珍贵。
快速学习如何运作
FSL 背后的核心理念是利用来自大型、多样化数据集的先验知识来快速学习新的相关任务。模型不是直接学习特定类别的分类,而是学习数据的更一般表示或学习如何比较数据点。常见的方法包括
- 基于度量的学习:这些方法通过学习距离函数或相似度量来比较几幅已标记的 "支持 "图像和未标记的 "查询 "图像。然后将查询图像分配到最相似的支持图像类别中。这种方法的流行例子包括连体网络(Siamese Networks)和原型网络(Prototypical Networks),前者通过学习确定两张图像是否属于同一类别,后者则通过学习度量空间中每个类别的原型表示。
- 基于优化的学习:这种方法通常与元学习(或 "学会学习")联系在一起,训练模型自身的优化过程。其目标是开发一种模型,只需几个梯度下降步骤,就能使其参数快速适应新任务。在这一领域,模型诊断元学习(MAML)是一种颇具影响力的算法。
- 基于记忆的学习:这些模型使用外部记忆组件来存储少数可用示例中的信息。当出现新的示例时,模型会从内存中检索相关信息,从而做出预测。这在概念上类似于k-Nearest Neighbors(k-NN)算法的工作原理。
快速学习与相关概念的比较
必须将 FSL 与其他处理有限数据的学习范式区分开来:
实际应用
在数据稀缺的专业领域,FSL 尤其有用。
- 医学影像中的罕见疾病诊断:对于罕见疾病,收集成千上万的病人扫描图像来进行模型训练往往是不可行的。有了 FSL,一个在大量普通医学图像数据集上预先训练好的模型就可以进行调整,只需使用少量确诊病例就能识别罕见疾病的征兆。这加快了医学图像分析诊断工具的开发。
- 工业缺陷检测:在制造业中,新产品线可能会出现独特且不常见的缺陷。无需暂停生产来收集成千上万的缺陷实例,只需使用少量样本就能快速训练出用于对象检测的 FSL 模型,从而实现质量控制自动化,提高效率并减少浪费。Ultralytics HUB等平台可帮助管理此类专用数据集,加快模型部署。
挑战与未来方向
尽管 FSL 前景广阔,但也面临着巨大的挑战。首要的障碍是防止过度拟合,因为模型很容易记住少数几个示例,而不是学习归纳。模型的性能还可能对所提供的支持示例的质量和代表性高度敏感。
由斯坦福大学、谷歌人工智能和Meta AI 等机构推动的持续研究,重点是创建更强大的元学习算法,以及更好地利用无监督或自我监督学习技术进行预训练。将这些方法结合起来,旨在建立更灵活、数据效率更高的人工智能系统,突破数据受限环境下的极限。PyTorch和TensorFlow等先进框架为研究人员探索这些前沿方法提供了必要的工具。