通过 Prompt Tuning 高效优化大型语言模型——降低成本、节省资源,并轻松实现特定任务的适应性。
提示调优是一种强大而有效的技术,用于将大型预训练模型(如大型语言模型 (LLM))适应于新任务,而无需更改原始模型的权重。它是一种参数高效微调 (PEFT)形式,它保持基础模型中数十亿个参数的冻结状态,而是学习一小组特定于任务的“软提示”。这些软提示不是人类可读的文本,而是可学习的嵌入,它们被添加到输入之前,以指导冻结的模型为特定的下游任务生成所需的输出。正如最初的Google AI 研究论文中所述,这种方法大大降低了特定于任务的适配所需的计算成本和存储。
核心思想是仅为每个任务训练几千或几百万个额外的参数(软提示),而不是重新训练或微调整个模型,这可能具有数十亿个参数。这使得为单个预训练模型创建许多专门的“提示模块”成为可能,每个模块都针对不同的任务量身定制,而无需创建完整的模型副本。此方法还有助于减轻灾难性遗忘,即模型在接受新任务训练时会忘记先前学习的信息。
提示调优能够为各种专业应用定制强大的基础模型。
务必区分 Prompt Tuning 与类似技术:
虽然 Prompt Tuning 主要应用于自然语言处理(NLP)中的 LLM,但高效适应的核心原则与整个人工智能(AI)相关。 在计算机视觉(CV)中,虽然在自定义数据集上对 Ultralytics YOLO 等模型进行完全微调对于目标检测等任务很常见,但 PEFT 方法越来越受欢迎,尤其是在大型多模态模型中。 像 Ultralytics HUB 这样的平台简化了训练和部署各种 AI 模型的过程,将来可能会包含此类高效技术。