利用 Prompt Tuning 高效优化大型语言模型--降低成本、节约资源,轻松实现特定任务的适应性。
提示调整(Prompt Tuning)是一种强大而高效的技术,可在不改变原始模型权重的情况下,使大型预训练模型(如大型语言模型(LLM))适应新任务。它是参数高效微调(PEFT)的一种形式,可以冻结基础模型中的数十亿个参数,转而学习一小套针对特定任务的 "软提示"。这些 "软提示 "不是人类可读的文本,而是预置在输入中的可学习嵌入,可引导冻结模型为特定下游任务生成所需的输出。这种方法大大降低了特定任务自适应所需的计算成本和存储空间,谷歌人工智能研究的原始论文中也记录了这一点。
其核心思想是对每个任务只训练几千或几百万个额外参数(软提示),而不是对整个模型进行重新训练或微调,因为整个模型可能有数十亿个参数。这样就可以为一个预先训练好的模型创建许多专门的 "提示模块",每个模块针对不同的任务,而无需创建完整的模型副本。这种方法还有助于减少灾难性遗忘,即当模型在新任务中接受训练时,会遗忘之前学习的信息。
Prompt Tuning 可为各种专业应用定制功能强大的基础模型。
重要的是要将 "提示调整 "与类似技术区分开来:
提示调整主要应用于自然语言处理(NLP)中的 LLM,而高效适应的核心原则则与人工智能(AI)息息相关。在计算机视觉(CV)领域,虽然像Ultralytics YOLO这样在自定义数据集上对模型进行全面微调的方法在物体检测等任务中很常见,但 PEFT 方法正日益受到重视,尤其是在大型多模态模型中。Ultralytics HUB等平台简化了各种人工智能模型的训练和部署过程,未来有可能将这种高效技术融入其中。