探索单次学习的威力,这是一种革命性的人工智能技术,可使模型从最少的数据中归纳出真实世界的应用。
单次学习(OSL)是机器学习(ML)中的一项分类任务,通过对模型的训练,可以从单个实例中识别出新的对象类别。与需要大量训练数据的传统深度学习模型不同,OSL 旨在模仿人类从单个实例中学习新概念的能力。这使得它在数据收集昂贵、困难或不可能的情况下特别有价值。其核心理念不是学习直接对物体进行分类,而是学习一个相似性函数,以确定两幅图像是否属于同一类别。
OSL 模型通常不训练识别特定类别的模型,而是根据不同的任务进行训练:确定两幅输入图像是相同还是不同。连体网络(Siamese Network)是一种常用的架构,由两个相同的神经网络组成,它们共享相同的权重。每个网络处理两幅输入图像中的一幅,创建嵌入--图像的紧凑数字表示。
然后,模型会对这两个嵌入进行比较,计算出相似度得分。在模型训练过程中,网络学会为同一类别的图像生成相似的嵌入,为不同类别的图像生成不相似的嵌入。训练完成后,模型就可以将新图像与每个已知类别中的单个 "镜头 "或示例进行比较,从而对图像进行分类。新图像会被分配到相似度得分最高的类别。这种方法在很大程度上依赖于良好的特征提取来建立稳健的表征。
OSL 是专为低数据场景设计的更广泛学习方法系列的一部分:
在数据稀缺的情况下,一次性学习非常有效。
OSL 面临的主要挑战是泛化。一个模型必须从单个示例中学习一个类别的核心本质,而不能过度适应其特定特征。因此,单个示例的质量至关重要。目前正在进行的研究,如 "有代码的论文"(Papers with Code)中强调的工作,主要集中在开发更强大的特征表示和先进的元学习策略上。将 OSL 功能集成到Ultralytics HUB等通用视觉平台中,可以极大地扩展其在数据有限环境中的应用。随着模型变得越来越强大,在这些苛刻的条件下使用适当的性能指标对其进行评估也是一个关键的研究领域。