Glossar

Prompt Chaining

Entdecke das Prompt Chaining: eine schrittweise KI-Technik, die Genauigkeit, Kontrolle und Präzision für komplexe Aufgaben mit großen Sprachmodellen verbessert.

Trainiere YOLO Modelle einfach
mit Ultralytics HUB

Mehr erfahren

Die Promptverkettung ist eine Technik, die in der Künstlichen Intelligenz (KI) eingesetzt wird, um komplexe Aufgaben zu bewältigen, indem sie in eine Abfolge von einfacheren, miteinander verbundenen Prompts aufgeteilt werden. Anstatt einen großen, möglicherweise unhandlichen Prompt zu verwenden, um ein Ziel zu erreichen, wird bei der Promptverkettung der Output eines KI-Modells (oft ein Large Language Model oder LLM) als Input für den nächsten Prompt in der Sequenz verwendet. Dieser modulare Ansatz ermöglicht eine bessere Kontrolle, eine höhere Genauigkeit und die Möglichkeit, anspruchsvollere Schlussfolgerungen oder Arbeitsabläufe zu verarbeiten, wodurch komplizierte KI-Aufgaben leichter zu bewältigen sind.

So funktioniert Prompt Chaining

Der Kerngedanke hinter Prompt Chaining ist die Aufgabenzerlegung. Ein komplexes Problem, das für eine KI in einem einzigen Schritt nur schwer zu lösen ist, wird in kleinere, überschaubare Teilaufgaben unterteilt. Jede Teilaufgabe wird durch einen bestimmten Prompt innerhalb der Kette bearbeitet. Die KI verarbeitet die erste Aufforderung, erzeugt eine Ausgabe und diese Ausgabe (oder eine verarbeitete Version davon) wird Teil der Eingabe für die zweite Aufforderung und so weiter. Dieser schrittweise Prozess führt die KI durch die Aufgabe und stellt sicher, dass jede Stufe logisch auf der vorherigen aufbaut. Diese Methode steht im Gegensatz zu dem Versuch, das gesamte Problem mit einem einzigen, oft komplexen und weniger zuverlässigen Prompt zu lösen. Frameworks wie LangChain werden häufig verwendet, um solche Ketten zu implementieren und die Orchestrierung dieser mehrstufigen Prozesse zu vereinfachen. Der Informationsfluss zwischen den Prompts ist der Schlüssel zum Erfolg der Kette.

Vorteile und Anwendungen

Die Promptverkettung bietet mehrere Vorteile für die Entwicklung anspruchsvoller KI-Systeme:

  • Bessere Genauigkeit und Verlässlichkeit: Durch die Zerlegung von Aufgaben wird die Komplexität bei jedem Schritt reduziert, was zu genaueren Zwischen- und Endergebnissen führt. Diese schrittweise Verfeinerung minimiert das Risiko von Fehlern oder KI-Halluzinationen.
  • Verbesserte Kontrolle und Fehlersuche: Jeder Schritt in der Kette kann einzeln überwacht, ausgewertet und debuggt werden. Das macht es einfacher, Probleme zu erkennen und zu beheben, als eine einzelne monolithische Eingabeaufforderung zu beheben. Dies entspricht den Best Practices für MLOps.
  • Umgang mit Komplexität: Ermöglicht es der KI, Aufgaben zu bewältigen, die mehrere Stufen des Denkens, der Informationsbeschaffung oder der Umwandlung erfordern und für eine einzelne Eingabeaufforderung zu komplex wären. Dies ist entscheidend für die Entwicklung fortschrittlicher KI-Agenten.
  • Modularität und Wiederverwendbarkeit: Einzelne Prompts oder Unterketten können in verschiedenen Arbeitsabläufen wiederverwendet werden, was die Effizienz bei der Entwicklung fördert. Diese Modularität ist ein Grundprinzip der Softwareentwicklung.

Beispiele aus der realen Welt:

  1. Automatisierung des Kundensupports: A Chatbot verwendet Prompt Chaining, um eine Benutzeranfrage zu bearbeiten.
    • Aufforderung 1: Analysiere die Anfrage des Nutzers, um die Absicht und die wichtigsten Elemente (z. B. Produktname, Art des Problems) zu identifizieren.
    • Aufforderung 2: Verwende die extrahierten Entitäten, um in einer Wissensdatenbank nach relevanten Artikeln zur Fehlerbehebung oder FAQs zu suchen.
    • Aufforderung 3: Fasse die gefundenen Informationen auf der Grundlage des spezifischen Nutzerproblems zusammen.
    • Aufforderung 4: Erstelle eine klare, einfühlsame Antwort für den Nutzer, die die Zusammenfassung enthält.
  2. Integration von Vision und Sprache für die Berichterstattung: Erzeugen eines beschreibenden Berichts aus einem Bild, das von einem Sicherheitssystem.
    • Aufforderung 1 (Eingabe: Bild): Verwende ein Ultralytics YOLO Modell zur Objekterkennung, um Objekte und ihre Standorte(Bounding Boxes) zu identifizieren.
    • Aufforderung 2 (Eingabe: Objektliste): Gib die Liste der erkannten Objekte und Orte an ein LLM weiter, um eine beschreibende Textzusammenfassung der Szene zu erstellen.
    • Aufforderung 3 (Eingabe: Tatortbeschreibung + Kontext): Verwende die Szenenbeschreibung und zusätzlichen Kontext (z. B. Zeit, Ort), um einen strukturierten Unfallbericht mit Hilfe von Textgenerierungsfunktionen zu erstellen. Dabei werden Computer Vision und natürliche Sprachverarbeitung (NLP) kombiniert.

Prompt Chaining vs. Verwandte Konzepte

Es ist hilfreich, Prompt Chaining von ähnlichen Techniken zu unterscheiden:

  • Prompt Engineering: Hier geht es um die Entwicklung effektiver Prompts für KI-Modelle. Die Promptverkettung ist eine spezielle Technik innerhalb des Prompt-Engineerings, bei der es darum geht, mehrere Prompts nacheinander zu strukturieren.
  • Chain-of-Thought (CoT) Prompting: CoT zielt darauf ab, die Denkfähigkeit eines LLMs innerhalb eines einzigen Prompts zu verbessern, indem es ihn auffordert, "Schritt für Schritt zu denken". Beim Prompt-Chaining hingegen wird die Aufgabe in mehrere einzelne Prompt-Schritte unterteilt, wobei bei jedem Schritt unterschiedliche Modelle oder Werkzeuge zum Einsatz kommen können.
  • Retrieval-Augmented Generation (RAG): RAG ist eine Technik, bei der ein KI-Modell relevante Informationen aus einer externen Wissensquelle abruft , bevor es eine Antwort erzeugt. RAG wird oft als ein bestimmter Schritt innerhalb einer größeren Abfragekette verwendet (z.B. die Suche in der Wissensdatenbank im Beispiel des Kundensupports). Erfahre mehr über RAG-Systeme.
  • Prompt Enrichment: Dabei wird die ursprüngliche Eingabeaufforderung eines Nutzers automatisch um Kontext oder Details ergänzt , bevor sie an die KI gesendet wird. Dabei wird zwar eine einzelne Eingabeaufforderung verbessert, aber es werden nicht wie bei der Verkettung mehrere, miteinander verbundene Eingabeaufforderungen nacheinander verarbeitet.
  • Prompt Tuning: Eine parametereffiziente Feinabstimmungsmethode (PEFT), bei der spezifische "Soft Prompts"(Einbettungen) gelernt werden, anstatt Text-Prompts zu erstellen. Es handelt sich dabei um eine Modellschulungstechnik, die sich von der Ausführungsstruktur der Promptverkettung zur Laufzeit unterscheidet.

Prompt Chaining ist eine leistungsstarke Methode, um die Interaktion mit fortgeschrittenen KI-Modellen wie LLMs zu strukturieren und sie sogar mit anderen KI-Systemen wie denen zur Bildklassifizierung oder Instanzsegmentierung zu integrieren. Sie macht komplexe Aufgaben überschaubarer und verbessert die Zuverlässigkeit der Ergebnisse in verschiedenen Anwendungen des maschinellen Lernens, von der grundlegenden Datenanalyse bis hin zu anspruchsvollen multimodalen KI-Systemen. Plattformen wie Ultralytics HUB erleichtern das Training und den Einsatz von Modellen, die Bestandteile solcher Ketten sein können.

Alles lesen