Optimieren Sie große Sprachmodelle effizient mit Prompt Tuning – reduzieren Sie Kosten, sparen Sie Ressourcen und erreichen Sie mühelos aufgabenspezifische Anpassungsfähigkeit.
Promptes Tuning ist eine Strategie zur Anpassung von vortrainierten Grundlagenmodelle an spezifische nachgelagerte Aufgaben ohne dass das gesamte Netz neu trainiert werden muss. Als eine Form der Parameter-Efficient Fine-Tuning (PEFT) friert diese Technik die massiven Parameter des ursprünglichen Modells ein und optimiert nur einen kleinen Satz erlernbarer Vektoren, die als "Soft Prompts" bekannt sind. Im Gegensatz zu dem für Menschen lesbaren Text, der in Prompt Engineering verwendet wird, sind Soft Prompts numerische Einbettungen, die den Eingabedaten vorangestellt werden. Diese gelernten Vektoren leiten das eingefrorene Modell an, die gewünschte Ausgabe zu erzeugen, was den Speicherbedarf im Vergleich zum Speicherbedarf im Vergleich zum vollständigen Modelltraining. Dieser Ansatz macht es möglich, viele verschiedene spezialisierte Aufgaben mit einem einzigen, gemeinsam genutzten Kernmodell zu erfüllen.
Der Mechanismus, der der prompten Abstimmung zugrunde liegt, beruht auf dem Konzept der Änderung der Eingabe und nicht der Modellarchitektur. Unter einem typischen Arbeitsablauf des maschinellen Lernens (ML) mit Large Language Models (LLMs) oder Vision Language Models wird der Eingabetext oder das Bild in eine Folge von numerischen Vektoren umgewandelt. Beim Prompt-Tuning werden zusätzliche trainierbare Vektoren (der Soft Prompt) am Anfang dieser Sequenz eingefügt.
Während der Backpropagation-Phase des Trainings aktualisiert der Gradientenabstiegsalgorithmus nur diese neuen Vektoren und lässt die Milliarden von Modellgewichten in der Backbone unangetastet. Diese Methode wurde in der Forschung von Google AI hervorgehoben, wobei gezeigt wurde dass bei größeren Modellen eine schnelle Abstimmung die Leistung einer vollständigen Feinabstimmung erreichen kann.
Promptes Tuning verändert die Industrie, indem es fortschrittliche Künstliche Intelligenz (KI) leichter zugänglicher und skalierbarer macht.
Es ist wichtig, die prompte Abstimmung von ähnlichen Anpassungstechniken zu unterscheiden:
Das Prompt-Tuning ist vor allem bekannt in der Verarbeitung natürlicher Sprache (NLP), tensordas zugrundeliegende mechanische Konzept - das Einfrieren eines großen Backbones und die Optimierung eines kleinen tensoruniversell im Deep Learning (DL). Das Folgende PyTorch Schnipsel demonstriert die grundlegende Logik des Einfrieren von Modellparametern und Erstellen eines lernfähigen Prompt-Parameters.
import torch
import torch.nn as nn
# Initialize a hypothetical pre-trained layer (the frozen backbone)
backbone = nn.Linear(768, 10)
# Freeze the backbone parameters so they don't update during training
for param in backbone.parameters():
param.requires_grad = False
# Create a 'soft prompt' embedding that IS trainable
# This represents the learnable vectors prepended to inputs
soft_prompt = nn.Parameter(torch.randn(1, 768), requires_grad=True)
# Setup an optimizer that only targets the soft prompt
optimizer = torch.optim.Adam([soft_prompt], lr=0.001)
Dieser Code veranschaulicht, wie Entwickler steuern können, welche Teile eines Systems lernen, ein wichtiger Aspekt bei der Optimierung von neuronaler Netze. Für Standard-Computer-Vision Aufgaben, effiziente Modelle wie Ultralytics YOLO11 sind typischerweise mit Hilfe von Standard-Feinabstimmungen auf benutzerdefinierten Datensätzen trainiert, aber die Prinzipien der Effizienz treiben die Entwicklung zukünftiger Architekturen wie YOLO26.
Promptes Tuning wird immer wichtiger in der Computer Vision (CV) mit dem Aufkommen von multimodalen Modellen wie CLIP. Die Forscher Forscher erforschen das "Visual Prompt Tuning", bei dem lernfähige Pixelfelder oder Token zu Eingabebildern hinzugefügt werden, um die Bildwandler an neue Aufgaben der Objekterkennung anzupassen ohne die schweren Merkmalsextraktoren neu zu trainieren. Dies spiegelt die Effizienzgewinne wider, die bei Sprachmodellen zu beobachten sind, und steht im Einklang mit dem Branchentrend zu Grüne KI durch durch Minimierung des Energieverbrauchs während des Trainings.