通过 Prompt Tuning 高效优化大型语言模型——降低成本、节省资源,并轻松实现特定任务的适应性。
即时调整是一种策略,用于调整预训练的基础模型,使其适应特定的下游任务。 基础模型以适应特定下游任务的策略 而无需重新训练整个网络的计算费用。作为一种 作为参数高效微调(PEFT)的一种形式,该技术冻结了原始模型的大量参数,只优化了一小部分可学习向量,这些向量被称为 "软提示"。 矢量,即 "软提示"。与提示工程中使用的人类可读文本不同 不同,软提示是数字 嵌入到输入数据中。这些 学习到的向量会引导冻结模型生成所需的输出,从而大大减少了存储和内存需求。 的存储和内存需求。这种方法 使得使用单个共享核心模型为许多不同的专业任务提供服务成为可能。
及时调整背后的机制依赖于修改输入而非模型结构的概念。在 典型的机器学习(ML)工作流程中 涉及大型语言模型 (LLM)或 在涉及大型语言模型(LLM)或视觉语言模型的典型机器学习(ML)工作流程中,输入文本或图像会被转换成一系列数字向量。在提示调整中,额外的可训练 向量(软提示)插入该序列的开头。
在反向传播训练阶段,梯度下降算法只更新这些新的算法。 梯度下降算法只更新这些新的 向量,而不触动主干网中的数十亿模型权重。 骨干网中的数十亿模型权重。这种方法在 Google 人工智能(Google AI)的研究中强调了这种方法。 随着模型规模的扩大,及时调整的性能可以与全面微调相媲美。
及时调整正在改变各行各业,使先进的 人工智能(AI)变得更加 更易获取和扩展。
将及时调整与类似的适应技术区分开来至关重要:
提示调整在 自然语言处理(NLP) 的底层机械概念在深度学习(DL)中tensor普遍。 深度学习(DL)中是通用的。以下内容 PyTorch片段演示了 冻结模型参数并创建可学习的提示参数。
import torch
import torch.nn as nn
# Initialize a hypothetical pre-trained layer (the frozen backbone)
backbone = nn.Linear(768, 10)
# Freeze the backbone parameters so they don't update during training
for param in backbone.parameters():
param.requires_grad = False
# Create a 'soft prompt' embedding that IS trainable
# This represents the learnable vectors prepended to inputs
soft_prompt = nn.Parameter(torch.randn(1, 768), requires_grad=True)
# Setup an optimizer that only targets the soft prompt
optimizer = torch.optim.Adam([soft_prompt], lr=0.001)
这段代码说明了开发人员如何控制系统的学习部分,这是优化 优化神经网络的一个关键方面。对于标准的计算机视觉 任务,高效模型如 Ultralytics YOLO11等高效模型 等高效模型通常是在定制数据集上使用标准微调方法进行训练的、 但效率原则推动着未来架构的发展,如 YOLO26。
随着计算机视觉(CV)技术的兴起,即时调整在 计算机视觉 (CV)中的重要性与日俱增。 多模式模型,如 CLIP。研究人员正在 研究人员正在探索 "视觉提示调整"(Visual Prompt Tuning),即在输入图像中添加可学习的像素片段或标记,使视觉转换器适应新的物体检测任务。 视觉转换器适应新的物体检测任务 而无需重新训练繁重的特征提取器。这反映了语言模型的效率提升,并与 与行业趋势一致 绿色人工智能 最大限度地降低训练过程中的能耗,从而与绿色人工智能的行业趋势保持一致。

