术语表

提示调整

利用 Prompt Tuning 高效优化大型语言模型--降低成本、节约资源,轻松实现特定任务的适应性。

提示调整(Prompt Tuning)是一种强大而高效的技术,可在不改变原始模型权重的情况下,使大型预训练模型(如大型语言模型(LLM))适应新任务。它是参数高效微调(PEFT)的一种形式,可以冻结基础模型中的数十亿个参数,转而学习一小套针对特定任务的 "软提示"。这些 "软提示 "不是人类可读的文本,而是预置在输入中的可学习嵌入,可引导冻结模型为特定下游任务生成所需的输出。这种方法大大降低了特定任务自适应所需的计算成本和存储空间,谷歌人工智能研究的原始论文中也记录了这一点。

其核心思想是对每个任务只训练几千或几百万个额外参数(软提示),而不是整个模型进行重新训练或微调,因为整个模型可能有数十亿个参数。这样就可以为一个预先训练好的模型创建许多专门的 "提示模块",每个模块针对不同的任务,而无需创建完整的模型副本。这种方法还有助于减少灾难性遗忘,即当模型在新任务中接受训练时,会遗忘之前学习的信息。

实际应用

Prompt Tuning 可为各种专业应用定制功能强大的基础模型

  • 定制情感分析:一家公司希望分析特定产品的客户反馈。通用的情感分析模型可能无法理解特定行业的行话。利用提示调整功能,该公司可以在自己标注的客户评论上训练一小套软提示,从而调整BERT等大型模型。由此产生的模型可以准确地对反馈进行分类,而无需进行完整的模型训练,从而提供更细致入微的见解。
  • 专业医疗聊天机器人:一家医疗机构希望建立一个聊天机器人,回答患者关于特定医疗条件的问题。全面训练大型医疗 LLM 需要大量资源。相反,他们可以在像GPT-4 这样的预训练模型上进行提示调整。通过在精心策划的医疗数据集上训练特定任务的提示,聊天机器人就能学会为该领域提供准确的、上下文感知的答案,从而使医疗领域更容易获得强大的人工智能

提示调整与相关概念

重要的是要将 "提示调整 "与类似技术区分开来:

  • 微调:这种方法是在新的数据集上更新预先训练好的模型的大部分甚至全部参数。这种方法的计算量较大,但有时可以通过深入调整模型的内部表征来获得更高的性能。模型训练技巧通常包括微调的各个方面。
  • 及时工程:这主要是手动设计有效的文本提示(硬提示),以指导冻结的预训练模型。它涉及在输入文本本身中精心设计指令和示例,而不涉及训练任何新参数。思维链提示等技术就属于这一类。
  • 提示丰富:这种技术通过添加上下文(例如使用检索增强生成(RAG))自动增强用户的提示,然后再将其发送给人工智能模型。与提示调整不同的是,它无需训练新的参数即可完善输入查询。
  • LoRA(低等级适应):这是另一种 PEFT 技术,它将小的、可训练的低秩矩阵注入预训练模型的现有层(如注意力机制)。与只关注输入嵌入的 Prompt Tuning 相比,它可以更新模型的不同部分。这两种方法都可以在Hugging Face PEFT 库等库中找到。

提示调整主要应用于自然语言处理(NLP)中的 LLM,而高效适应的核心原则则与人工智能(AI)息息相关。在计算机视觉(CV)领域,虽然像Ultralytics YOLO这样在自定义数据集上对模型进行全面微调的方法在物体检测等任务中很常见,但 PEFT 方法正日益受到重视,尤其是在大型多模态模型中。Ultralytics HUB等平台简化了各种人工智能模型的训练和部署过程,未来有可能将这种高效技术融入其中。

加入 Ultralytics 社区

加入人工智能的未来。与全球创新者联系、合作和成长

立即加入
链接复制到剪贴板