Schalten Sie ein zu YOLO Vision 2025!
25. September 2025
10:00 — 18:00 Uhr BST
Hybride Veranstaltung
Yolo Vision 2024
Glossar

Prompt Tuning

Optimieren Sie große Sprachmodelle effizient mit Prompt Tuning – reduzieren Sie Kosten, sparen Sie Ressourcen und erreichen Sie mühelos aufgabenspezifische Anpassungsfähigkeit.

Prompt Tuning ist eine leistungsstarke und effiziente Technik, um große, vortrainierte Modelle, wie z. B. Large Language Models (LLMs), an neue Aufgaben anzupassen, ohne die Gewichte des ursprünglichen Modells zu verändern. Es ist eine Form von Parameter-Efficient Fine-Tuning (PEFT), die die Milliarden von Parametern im Basismodell fixiert und stattdessen einen kleinen Satz aufgabenspezifischer "Soft Prompts" lernt. Diese Soft Prompts sind kein für Menschen lesbarer Text, sondern erlernbare Embeddings, die der Eingabe vorangestellt werden und das fixierte Modell anleiten, die gewünschte Ausgabe für eine bestimmte Downstream-Aufgabe zu erzeugen. Dieser Ansatz reduziert die Rechenkosten und den Speicherbedarf für die aufgabenspezifische Anpassung erheblich, wie im ursprünglichen Google AI Research Paper dokumentiert.

Die Grundidee ist, nur ein paar tausend oder Millionen zusätzliche Parameter (den Soft Prompt) pro Aufgabe zu trainieren, anstatt das gesamte Modell neu zu trainieren oder feinabzustimmen, das Milliarden von Parametern haben könnte. Dies macht es machbar, viele spezialisierte "Prompt-Module" für ein einzelnes vortrainiertes Modell zu erstellen, die jeweils auf eine andere Aufgabe zugeschnitten sind, ohne vollständige Modellkopien zu erstellen. Diese Methode hilft auch, katastrophales Vergessen zu mildern, bei dem ein Modell zuvor gelernte Informationen vergisst, wenn es auf einer neuen Aufgabe trainiert wird.

Anwendungsfälle in der Praxis

Prompt Tuning ermöglicht die Anpassung leistungsstarker Foundation Models für eine Vielzahl von spezialisierten Anwendungen.

  • Benutzerdefinierte Stimmungsanalyse: Ein Unternehmen möchte Kundenfeedback zu seinen spezifischen Produkten analysieren. Ein Allzweck-Sentiment Analysis-Modell versteht möglicherweise branchenspezifische Fachbegriffe nicht. Durch Prompt-Tuning kann das Unternehmen ein großes Modell wie BERT anpassen, indem es eine kleine Menge von Soft-Prompts mit seinen eigenen, gelabelten Kundenrezensionen trainiert. Das resultierende Modell kann Feedback präzise klassifizieren, ohne dass ein vollständiges Modelltraining erforderlich ist, und liefert so differenziertere Einblicke.
  • Spezialisierte medizinische Chatbots: Eine Gesundheitsorganisation möchte einen Chatbot entwickeln, der Patientenfragen zu bestimmten Krankheitsbildern beantwortet. Das vollständige Training eines großen medizinischen LLM ist ressourcenintensiv. Stattdessen können sie Prompt-Tuning auf einem vortrainierten Modell wie GPT-4 verwenden. Durch das Trainieren eines aufgabenspezifischen Prompts mit einem kuratierten medizinischen Datensatz lernt der Chatbot, genaue, kontextbezogene Antworten für diesen Bereich zu geben, wodurch leistungsstarke KI im Gesundheitswesen zugänglicher wird.

Prompt Tuning vs. verwandte Konzepte

Es ist wichtig, Prompt Tuning von ähnlichen Techniken zu unterscheiden:

  • Fine-Tuning: Diese Methode aktualisiert einen großen Teil oder sogar alle Parameter eines vortrainierten Modells auf einem neuen Datensatz. Sie ist rechenintensiver, kann aber manchmal eine höhere Leistung erzielen, indem sie die internen Darstellungen des Modells tiefgreifend anpasst. Tipps zum Modelltraining behandeln oft Aspekte des Fine-Tunings.
  • Prompt Engineering: Dies konzentriert sich auf die manuelle Gestaltung effektiver textbasierter Prompts (Hard Prompts), um ein eingefrorenes, vortrainiertes Modell zu steuern. Es beinhaltet das Erstellen von Anweisungen und Beispielen innerhalb des Eingabetextes selbst und beinhaltet kein Training neuer Parameter. Techniken wie Chain-of-Thought Prompting fallen in diese Kategorie.
  • Prompt Enrichment: Diese Technik verbessert den Prompt eines Benutzers automatisch durch Hinzufügen von Kontext, beispielsweise durch Verwendung von Retrieval-Augmented Generation (RAG), bevor er an das KI-Modell gesendet wird. Im Gegensatz zum Prompt Tuning verfeinert es die Eingabeabfrage, ohne neue Parameter zu trainieren.
  • LoRA (Low-Rank Adaptation): Eine weitere PEFT-Technik, die kleine, trainierbare Low-Rank-Matrizen in bestehende Schichten (wie den Aufmerksamkeitsmechanismus) des vortrainierten Modells injiziert. Sie aktualisiert andere Teile des Modells im Vergleich zu Prompt Tuning, das sich ausschließlich auf Eingebettungen konzentriert. Beide sind oft in Bibliotheken wie der Hugging Face PEFT-Bibliothek zu finden.

Während Prompt Tuning hauptsächlich auf LLMs in der natürlichen Sprachverarbeitung (Natural Language Processing, NLP) angewendet wird, ist das Kernprinzip der effizienten Anpassung in der gesamten künstlichen Intelligenz (KI) relevant. In der Computer Vision (CV) ist die vollständige Feinabstimmung von Modellen wie Ultralytics YOLO auf benutzerdefinierten Datensätzen (custom datasets) für Aufgaben wie die Objekterkennung (object detection) zwar üblich, aber PEFT-Methoden gewinnen an Bedeutung, insbesondere für große multimodale Modelle (multi-modal models). Plattformen wie Ultralytics HUB optimieren den Prozess des Trainings und der Bereitstellung verschiedener KI-Modelle und können solche effizienten Techniken in Zukunft integrieren.

Treten Sie der Ultralytics-Community bei

Gestalten Sie die Zukunft der KI mit. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten
Link in die Zwischenablage kopiert