术语表

元学习

探索元学习:人工智能的突破性进展,使模型能够更快地学习、适应新任务,并在数据量极少的情况下表现出色。立即探索应用!

使用Ultralytics HUB 对YOLO 模型进行简单培训

了解更多

元学习(Meta Learning通常被描述为 "学会学习",是机器学习(ML)中一个令人兴奋的子领域。元学习的目的不是训练一个模型来执行单一的特定任务(比如对猫和狗的图像进行分类),而是训练一个模型来完成各种学习任务,使其能够更快、更高效地学习任务,而且往往只需使用更少的数据。其核心思想是利用在多个任务中获得的经验来改进学习过程本身,从而使人工智能(AI)系统更具适应性和通用性。

核心理念:学会如何学习

传统的机器学习侧重于使用固定的数据集优化模型在特定任务中的性能。相比之下,元学习的抽象程度更高。它涉及两个层面的优化:一个是基础学习器适应特定任务的内循环,另一个是根据许多不同任务的表现更新学习策略或模型参数的外循环(元学习器)。这种方法允许元学习器对学习过程进行泛化,从而在面对新任务或新环境时实现快速适应,这在训练数据稀缺的情况下尤为重要。这一过程的关键是在元训练阶段接触一系列不同的任务。

元学习方法

实施元学习系统有几种策略:

  • 基于度量:这些方法学习一个距离函数或度量空间,在这个空间中,同一类别的示例距离较近,而不同类别的示例距离较远。对于一项新任务,分类是通过将新示例与该学习空间中的少数可用标注示例进行比较来完成的。原型网络就是一个著名的例子。
  • 基于模型:这些方法使用模型架构,通常涉及递归神经网络(RNN)或具有外部记忆的模型,旨在根据特定任务的新数据快速更新参数。模型的内部状态编码了特定任务的知识。
  • 基于优化:这种流行的方法侧重于学习一种有效的优化算法或模型初始化,只需几个梯度下降步骤就能快速适应新任务。模型诊断元学习(MAML)是这一领域的开创性工作。

元学习与相关概念

将元学习与相关的 ML 范式区分开来非常重要:

  • 迁移学习在迁移学习中,预先在大型源任务(如ImageNet 分类)上训练好的模型会针对单一目标任务进行微调。而元学习则是学习一种适用于许多潜在目标任务的适应策略。虽然两者都利用了过去的知识,但元学习侧重于适应过程本身。像 Ultralytics YOLO等模型通常从预先训练好的权重开始,利用迁移学习。
  • 多任务学习多任务学习涉及在多个已知任务上同时训练一个模型,旨在通过共享表征提高所有任务的性能。元学习的重点是快速学习以前从未见过的新任务。
  • 集合学习集合方法结合了针对同一任务训练的多个模型的预测结果,以提高整体稳健性和准确性。元学习的重点是提高学习新任务的效率,而不是针对单一任务组合模型。

实际应用

元学习在各个领域都显示出巨大的潜力:

  • 计算机视觉中的少量学习使模型只需使用少量示例就能执行图像分类或新类别对象检测等任务(例如,只需看到 1-5 张图像就能识别稀有物种或特定产品缺陷)。这在没有大型数据集数据集创建成本高昂的情况下至关重要。
  • 超参数调整神经架构搜索(NAS)元学习(Meta-learning)可根据以往优化任务的经验,学习高效搜索最佳模型架构或超参数的策略,以解决新的数据集或问题。这加快了模型的开发周期,如 YOLOv8YOLO11.Ultralytics HUB等平台提供了管理数据集训练模型的工具,元学习有可能简化优化过程。
  • 机器人机器人经常需要快速适应新环境,或以最少的试错学习新技能。元强化学习允许代理学习适应策略,从而高效地掌握新任务。请参见人工智能驱动的自动化中的应用。
  • 个性化推荐:元学习可以帮助推荐系统根据最少的交互数据,借鉴其他用户的学习模式,快速适应新用户或不断变化的用户偏好。

在人工智能发展中的重要性

元学习是推动人工智能向更高适应性和数据效率发展的一个关键研究方向。通过学习如何学习,模型可以解决更广泛的问题,尤其是那些数据有限或需要快速适应的问题,如个性化医疗、自主系统和动态控制问题。虽然计算密集,但快速学习新任务的能力更接近人类的学习能力,并有望在未来实现更灵活、更智能的人工智能系统。通过DeepMind等组织和学术机构继续开展研究,通常利用的框架包括 PyTorchTensorFlow.

阅读全部