Glossar

Sofortige Anreicherung

Beherrschen Sie KI mit Prompt Enrichment! Verbessern Sie die Ausgaben von Large Language Models mit Kontext, klaren Anweisungen und Beispielen für präzise Ergebnisse.

Prompt Enrichment ist der automatisierte Prozess, bei dem die ursprüngliche Eingabeaufforderung eines Benutzers programmgesteuert mit relevantem Kontext oder Informationen angereichert wird, bevor sie an ein KI-Modell, insbesondere ein Large Language Model (LLM), gesendet wird. Ziel ist es, eine einfache oder zweideutige Benutzeranfrage in eine detaillierte, spezifische und kontextbezogene Anweisung umzuwandeln. Dieser Vorverarbeitungsschritt hilft dem KI-Modell, die Absicht des Nutzers besser zu verstehen, was zu wesentlich genaueren, personalisierten und nützlichen Antworten führt, ohne das Modell selbst zu verändern.

Wie funktioniert Prompt Enrichment?

Prompt Enrichment fungiert als intelligente Middleware-Schicht. Wenn ein Benutzer eine Anfrage stellt, wird diese von einem automatischen System abgefangen. Dieses System sammelt dann Kontextdaten aus verschiedenen Quellen wie Benutzerprofilen, Gesprächsverlauf, Sitzungsdaten (wie Gerätetyp oder Standort) oder externen Datenbanken. Anschließend fügt es diese Informationen dynamisch in die ursprüngliche Eingabeaufforderung ein. Die daraus resultierende "angereicherte" Eingabeaufforderung, die nun sowohl die Anfrage des Benutzers als auch den hinzugefügten Kontext enthält, wird schließlich zur Verarbeitung an das LLM weitergeleitet. Dies verbessert die Fähigkeit des Modells, komplexe Aufgaben des Natural Language Understanding (NLU) durchzuführen.

Anwendungen in der realen Welt

  1. Personalisierte Kundenunterstützung: Ein Benutzer interagiert mit einem E-Commerce-Chatbot und gibt ein: "Wo ist mein Paket?" Das System zur Anreicherung der Eingabeaufforderung kann automatisch die Kontodaten des Benutzers und seine letzte Bestellnummer aus einer CRM-Datenbank abrufen. Die an das Modell gesendete Eingabeaufforderung lautet dann: "Kunden-ID 98765 erkundigt sich nach dem Status seiner letzten Bestellung, #ABC-12345. Die ursprüngliche Anfrage des Benutzers: 'Wo ist mein Paket?'" Auf diese Weise kann der KI-gesteuerte Kundendienstmitarbeiter sofort ein spezifisches Update geben, anstatt nach weiteren Informationen zu fragen.
  2. Intelligentere Empfehlung von Inhalten: Ein Nutzer eines Streaming-Dienstes sagt: "Empfehlen Sie einen Film". Dies ist zu vage für eine gute Empfehlung. Der Anreicherungsprozess kann diese Aufforderung mit Daten wie der Sehgeschichte des Nutzers, seinen angegebenen Genrevorlieben und der Tageszeit anreichern. Die endgültige Aufforderung könnte wie folgt aussehen: "Der Nutzer hat in letzter Zeit gerne Science-Fiction-Thriller und historische Dramen gesehen. Es ist ein Samstagabend. Empfehlen Sie einen Film, der diese Kriterien erfüllt". Dies führt zu relevanteren Vorschlägen des Empfehlungssystems und verbessert die Nutzererfahrung durch Personalisierung.

Prompt Enrichment vs. Verwandte Konzepte

Es ist wichtig, die prompte Anreicherung von ähnlichen Begriffen zu unterscheiden:

  • Schnelles Engineering: Dies ist die umfassende Disziplin der Gestaltung effektiver Eingabeaufforderungen. Die Anreicherung von Prompts ist eine spezifische, automatisierte Technik innerhalb der Promptentwicklung, die sich darauf konzentriert, den Eingaben eines Benutzers dynamischen Kontext hinzuzufügen.
  • Retrieval-Augmented Generation (RAG): RAG ist eine leistungsstarke und spezifische Art der Anreicherung von Eingabeaufforderungen. Sie ist darauf spezialisiert, faktische Informationen aus einer externen Wissensbasis abzurufen, um die Ausgabe des Modells zu fundieren und Halluzinationen zu vermeiden. Während RAG eine Form der Anreicherung ist, kann die Anreicherung auch andere Kontextquellen nutzen, wie z.B. Daten aus Benutzersitzungen, die nicht Teil einer statischen Wissensbasis sind.
  • Prompt Verkettung: Bei dieser Technik wird eine Aufgabe in eine Abfolge mehrerer, miteinander verbundener Prompts unterteilt, wobei die Ausgabe eines Prompts in den nächsten einfließt. Bei der Anreicherung hingegen wird ein einzelner Prompt geändert, bevor er verarbeitet wird. Ein Prompt Enrichment-Schritt kann Teil einer größeren Kette sein, oft als erster Schritt. Andere Techniken wie das Chain-of-Thought (CoT) Prompting konzentrieren sich auf die Verbesserung des Denkens innerhalb einer einzelnen Interaktion.
  • Prompt Tuning: Hierbei handelt es sich um eine Methode zur Modellschulung. Als parameter-effiziente Feinabstimmung (PEFT) passt sie das Verhalten eines Modells an, indem sie einen kleinen Satz neuer Parameter trainiert. Prompt Enrichment ist eine Technik zur Inferenzzeit, die die Eingabeabfrage manipuliert, ohne die Gewichte des Modells zu verändern.

Die Kernidee ist zwar in der natürlichen Sprachverarbeitung (NLP) am weitesten verbreitet, lässt sich aber auf das maschinelle Lernen übertragen. Beim maschinellen Sehen könnte ein ähnliches Konzept das Hinzufügen von Metadaten (z. B. Ort, Zeit) zu einem Bild beinhalten, um die Leistung eines Modells wie Ultralytics YOLO11 bei einer Objekterkennungsaufgabe zu verbessern. MLOps-Plattformen wie Ultralytics HUB bieten die Infrastruktur, die für eine robuste Modellbereitstellung erforderlich ist, bei der anspruchsvolle Eingabepipelines mit Anreicherungen und Frameworks wie LangChain oder LlamaIndex implementiert werden können.

Werden Sie Mitglied der Ultralytics-Gemeinschaft

Beteiligen Sie sich an der Zukunft der KI. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten
Link in die Zwischenablage kopiert