了解 "少量学习 "如何使人工智能能够利用最少的数据进行调整,从而改变医疗诊断和野生动物保护等领域。
少量学习(Few-Shot Learning,FSL)是机器学习(Machine Learning,ML)的一个子领域,专注于设计能够从每类极少量训练示例(通常只有几个)中泛化的模型。这与传统的深度学习(DL)方法形成了鲜明的对比,后者通常需要大量的标注训练数据。其核心思想受到人类学习的启发,在人类学习中,我们通常只需看到一两个实例就能识别新概念。在数据收集昂贵、耗时或固有限制的领域,FSL 尤为重要,它使人工智能(AI)更具适应性和数据效率。
快速学习技术旨在利用先前的知识,从有限的数据中快速学习新概念。常见的策略包括
这些方法使神经网络 (NN)即使在特定任务数据极少的情况下也能实现合理的性能。
必须将 FSL 与类似的学习范式区分开来:
在无法或不可能获得大型数据集的情况下,FSL 可使人工智能应用成为可能:
尽管 FSL 前景广阔,但它也面临着挑战,包括模型对所提供的少数特定示例的敏感性,以及确保在这些示例之外的强大泛化能力。利用如此有限的数据克服过度拟合是一个重大障碍。目前的研究重点是开发更强大的元学习算法,更好地利用无监督学习或自监督学习进行预训练,以及创建理论框架来理解低数据环境下的泛化。Google 人工智能(Google AI)和元人工智能(Meta AI)等机构积极推动 FSL 技术的发展,旨在使人工智能系统更加灵活,对数据的需求更少。