术语表

LoRA(低等级适应)

了解 LoRA 如何高效地微调 YOLO 等大型人工智能模型,降低成本,并以最少的资源实现边缘部署。

LoRA,即低级适应Low-Rank Adaptation),是一种高效技术,用于针对特定任务调整大型预训练机器学习(ML)模型,而无需重新训练整个模型。LoRA 最初是由微软研究人员在一篇论文中详细阐述的,现已成为参数高效微调(PEFT)的基石。它大大降低了与定制大型模型(如大型语言模型(LLM)和其他基础模型)相关的计算成本和存储要求。

LoRA 如何工作

LoRA 不更新预训练模型中的数十亿个模型权重,而是冻结所有权重。然后,它将一对小的、可训练的矩阵(即低秩适配器)注入到模型的特定层中,通常是在Transformer架构的注意力机制中。在训练过程中,只更新这些新的、小得多的矩阵参数。其核心理念是,模型适应新任务所需的变化可以用比原始模型少得多的参数来表示。这就利用了类似于降维的原理,以紧凑的形式捕捉到适应的基本信息。训练完成后,小型适配器可以与原始权重合并,也可以单独保留,用于模块化任务切换。

实际应用

LoRA 的效率使其成为各种应用的理想选择,尤其是在需要多个定制模型的情况下。

  • 定制聊天机器人:企业可以使用功能强大的通用LLM,并使用 LoRA 在内部知识库中对其进行训练。这样就能创建一个专门的客户服务聊天机器人,它能理解公司的特定术语,而无需花费大量成本进行全面微调
  • 人工智能艺术与风格转换:艺术家和设计师利用 LoRA 将稳定扩散(Stable Diffusion)等人工智能生成模型调整为特定的艺术风格。通过在一小组自己的图像上训练适配器,他们可以生成模仿自己独特审美的新艺术作品,这种做法在Hugging Face 等平台上很受欢迎。

LoRA 与相关概念

将 LoRA 与其他模型适应技术区分开来很有帮助:

  • 全面微调:这种方法是在新数据集上更新预训练模型的所有权重。虽然这种方法通常很有效,但它需要大量的计算资源(GPU)和存储空间来处理每个适配模型。相比之下,LoRA 会冻结原始权重,只训练注入的小适配矩阵。更多详情,请参阅我们的微调术语表英伟达™(NVIDIA®)微调概述
  • 提示调整:这种技术将模型权重完全冻结,转而学习连续的 "软提示"(添加到输入嵌入中的向量),以引导模型在特定任务中的行为。与 LoRA 不同的是,它不会修改任何模型权重,而只是专注于调整输入表示。了解更多有关提示调整提示工程的信息。
  • 其他 PEFT 方法:LoRA 只是参数效率微调(PEFT)这一更广泛领域中的一种技术。其他方法包括适配器调整(Adapter Tuning,类似但适配器结构略有不同)、前缀调整(Prefix Tuning)和 IA³,每种方法在参数效率和性能方面都有不同的权衡。这些方法通常在Hugging Face PEFT 库等框架中提供。

总之,LoRA 提供了一种功能强大、资源效率高的方法,可为自然语言处理(NLP)计算机视觉领域的各种特定任务定制大型预训练基础模型,使高级人工智能更加实用、更容易获得。这种方法可以轻松管理和部署许多专业模型,Ultralytics HUB等平台简化了管理模型生命周期的流程。

加入 Ultralytics 社区

加入人工智能的未来。与全球创新者联系、合作和成长

立即加入
链接复制到剪贴板