术语表

一次性学习

探索单次学习的威力,这是一种革命性的人工智能技术,可使模型从最少的数据中归纳出真实世界的应用。

单次学习(OSL)是机器学习(ML)中的一项分类任务,通过对模型的训练,可以从单个实例中识别出新的对象类别。与需要大量训练数据的传统深度学习模型不同,OSL 旨在模仿人类从单个实例中学习新概念的能力。这使得它在数据收集昂贵、困难或不可能的情况下特别有价值。其核心理念不是学习直接对物体进行分类,而是学习一个相似性函数,以确定两幅图像是否属于同一类别。

一次性学习如何运作

OSL 模型通常不训练识别特定类别的模型,而是根据不同的任务进行训练:确定两幅输入图像是相同还是不同。连体网络(Siamese Network)是一种常用的架构,由两个相同的神经网络组成,它们共享相同的权重。每个网络处理两幅输入图像中的一幅,创建嵌入--图像的紧凑数字表示。

然后,模型会对这两个嵌入进行比较,计算出相似度得分。在模型训练过程中,网络学会为同一类别的图像生成相似的嵌入,为不同类别的图像生成不相似的嵌入。训练完成后,模型就可以将新图像与每个已知类别中的单个 "镜头 "或示例进行比较,从而对图像进行分类。新图像会被分配到相似度得分最高的类别。这种方法在很大程度上依赖于良好的特征提取来建立稳健的表征。

与其他学习范式的关系

OSL 是专为低数据场景设计的更广泛学习方法系列的一部分:

  • 快速学习(FSL):OSL 的泛化,即模型从每个类别的少量示例(如 2 到 5 个)中学习,而不是只从一个示例中学习。FSL 比 OSL 提供更多的信息,通常能带来更好的性能。
  • 零距离学习(ZSL):这是一种更具挑战性的模式,模型必须识别出它在训练过程中从未见过的类别,通常是通过学习视觉特征与高级语义描述之间的映射。
  • 元学习:这种方法通常被称为 "以学习为目的的学习",它对模型进行各种学习任务的训练,使其能够更高效地解决新任务。许多 OSL 和 FSL 技术都基于元学习原理,如加州大学伯克利分校 BAIR 等机构的研究所述。
  • 转移学习:这包括使用一个在大型数据集(如ImageNet)上预先训练好的模型,然后在一个较小的特定数据集上进行微调。虽然两者相关,但 OSL 侧重于从单个示例中学习,而不进行大量微调。

实际应用

在数据稀缺的情况下,一次性学习非常有效。

  1. 面部识别:安防系统可以使用 OSL 在只显示一张照片的情况下识别一个人。系统会学习创建一个独特的面部特征(嵌入),然后可以从不同角度、在不同光照条件下识别该人。该技术可用于从智能手机解锁到大楼安全访问等各种应用中。Facebook 人工智能公司早期发表的一篇颇具影响力的论文《DeepFace》展示了深度网络在这项任务中的强大功能。
  2. 药物发现:在药理学中,确定可成为有效药物的新分子是一个成本高昂的过程。OSL 可用于建立模型,根据具有所需特性的单个已知实例预测新分子的特性。这加快了筛选过程,有关基于图的深度学习用于药物开发的研究对此进行了讨论。

挑战与未来方向

OSL 面临的主要挑战是泛化。一个模型必须从单个示例中学习一个类别的核心本质,而不能过度适应其特定特征。因此,单个示例的质量至关重要。目前正在进行的研究,如 "有代码的论文"(Papers with Code)中强调的工作,主要集中在开发更强大的特征表示和先进的元学习策略上。将 OSL 功能集成到Ultralytics HUB等通用视觉平台中,可以极大地扩展其在数据有限环境中的应用。随着模型变得越来越强大,在这些苛刻的条件下使用适当的性能指标对其进行评估也是一个关键的研究领域。

加入 Ultralytics 社区

加入人工智能的未来。与全球创新者联系、合作和成长

立即加入
链接复制到剪贴板