Schalten Sie ein zu YOLO Vision 2025!
25. September 2025
10:00 — 18:00 Uhr BST
Hybride Veranstaltung
Yolo Vision 2024
Glossar

Prompt Enrichment

Meistere KI mit Prompt Enrichment! Verbessere die Ausgaben von Large Language Models mit Kontext, klaren Anweisungen und Beispielen für präzise Ergebnisse.

Prompt Enrichment ist der automatisierte Prozess, bei dem einem anfänglichen Prompt eines Benutzers programmgesteuert relevanter Kontext oder Informationen hinzugefügt werden, bevor er an ein KI-Modell, insbesondere ein Large Language Model (LLM), gesendet wird. Ziel ist es, eine einfache oder mehrdeutige Benutzeranfrage in eine detaillierte, spezifische und kontextbezogene Anweisung umzuwandeln. Dieser Vorverarbeitungsschritt hilft dem KI-Modell, die Absicht des Benutzers besser zu verstehen, was zu deutlich genaueren, personalisierteren und nützlicheren Antworten führt, ohne das Modell selbst zu verändern.

Wie Prompt Enrichment funktioniert

Prompt Enrichment fungiert als intelligente Middleware-Schicht. Wenn ein Benutzer eine Anfrage abschickt, fängt ein automatisiertes System diese ab. Dieses System sammelt dann Kontextdaten aus verschiedenen Quellen, wie z. B. Benutzerprofilen, Konversationsverläufen, Sitzungsdaten (wie Gerätetyp oder Standort) oder externen Datenbanken. Anschließend werden diese Informationen dynamisch in den ursprünglichen Prompt eingefügt. Der resultierende "angereicherte" Prompt, der nun sowohl die Anfrage des Benutzers als auch den hinzugefügten Kontext enthält, wird schließlich zur Verarbeitung an das LLM weitergeleitet. Dies verbessert die Fähigkeit des Modells, komplexe Aufgaben der natürlichen Sprachverarbeitung (NLU) auszuführen.

Anwendungsfälle in der Praxis

  1. Personalisierter Kundensupport: Ein Benutzer interagiert mit einem E-Commerce-Chatbot und tippt ein: "Wo ist mein Paket?" Das Prompt-Enrichment-System kann automatisch die Kontodetails des Benutzers und seine letzte Bestellnummer aus einer CRM-Datenbank abrufen. Der an das Modell gesendete Prompt lautet: "Kunden-ID 98765 fragt nach dem Status seiner letzten Bestellung, #ABC-12345. Originalanfrage des Benutzers: 'Wo ist mein Paket?'" Dies ermöglicht es dem KI-gestützten Kundendienstmitarbeiter, ein sofortiges, spezifisches Update bereitzustellen, anstatt nach klärenden Informationen zu fragen.
  2. Intelligentere Inhaltsempfehlung: Ein Nutzer eines Streaming-Dienstes sagt: "Empfehlen Sie einen Film." Dies ist zu vage für eine gute Empfehlung. Der Anreicherungsprozess kann diese Anfrage mit Daten wie dem Wiedergabeverlauf des Nutzers, seinen angegebenen Genre-Präferenzen und der Tageszeit ergänzen. Die endgültige Anfrage könnte wie folgt aussehen: "Der Nutzer hat sich kürzlich an Sci-Fi-Thrillern und historischen Dramen erfreut. Es ist Samstagabend. Empfehlen Sie einen Film, der diesen Kriterien entspricht." Dies führt zu einem relevanteren Vorschlag des Empfehlungssystems und verbessert die Benutzererfahrung durch Personalisierung.

Prompt Enrichment vs. verwandte Konzepte

Es ist wichtig, Prompt Enrichment von ähnlichen Begriffen abzugrenzen:

  • Prompt Engineering: Dies ist die umfassende Disziplin der Gestaltung effektiver Prompts. Prompt Enrichment ist eine spezifische, automatisierte Technik innerhalb des Prompt Engineerings, die sich auf das Hinzufügen von dynamischem Kontext zur Eingabe eines Benutzers konzentriert.
  • Retrieval-Augmented Generation (RAG): RAG ist eine leistungsstarke und spezifische Art der Prompt-Anreicherung. Sie ist darauf spezialisiert, faktische Informationen aus einer externen Wissensdatenbank abzurufen, um die Ausgabe des Modells zu untermauern und Halluzinationen zu verhindern. Während RAG eine Form der Anreicherung ist, kann die Anreicherung auch andere Kontextquellen nutzen, wie z. B. User Session Daten, die nicht Teil einer statischen Wissensdatenbank sind.
  • Prompt Chaining: Diese Technik zerlegt eine Aufgabe in eine Sequenz von mehreren, miteinander verbundenen Prompts, wobei die Ausgabe eines Prompts in den nächsten einfließt. Enrichment hingegen modifiziert einen einzelnen Prompt, bevor er verarbeitet wird. Ein Prompt-Enrichment-Schritt kann Teil einer größeren Kette sein, oft als erster Schritt. Andere Techniken wie Chain-of-Thought (CoT) Prompting konzentrieren sich auf die Verbesserung des Denkprozesses innerhalb einer einzelnen Interaktion.
  • Prompt Tuning: Dies ist eine Modelltrainingsmethode. Als eine Parameter-effiziente Fine-Tuning (PEFT)-Technik passt sie das Verhalten eines Modells an, indem sie einen kleinen Satz neuer Parameter trainiert. Prompt Enrichment ist eine Inferenzzeit-Technik, die die Eingabeabfrage manipuliert und die Gewichte des Modells nicht verändert.

Obwohl am häufigsten in der natürlichen Sprachverarbeitung (NLP) verwendet, ist die Kernidee im gesamten Bereich des maschinellen Lernens anwendbar. Im Bereich Computer Vision könnte ein ähnliches Konzept darin bestehen, einem Bild Metadaten (z. B. Ort, Zeit) hinzuzufügen, um die Leistung eines Modells wie Ultralytics YOLO11 bei einer Objekterkennungsaufgabe zu verbessern. MLOps-Plattformen wie Ultralytics HUB bieten die Infrastruktur, die für ein robustes Modell-Deployment erforderlich ist, wo hochentwickelte Eingabe-Pipelines mit Anreicherung und Frameworks wie LangChain oder LlamaIndex implementiert werden können.

Treten Sie der Ultralytics-Community bei

Gestalten Sie die Zukunft der KI mit. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten
Link in die Zwischenablage kopiert