Schalten Sie ein zu YOLO Vision 2025!
25. September 2025
10:00 — 18:00 Uhr BST
Hybride Veranstaltung
Yolo Vision 2024
Glossar

Prompt Chaining

Entdecken Sie Prompt Chaining: eine schrittweise KI-Technik zur Verbesserung von Genauigkeit, Kontrolle und Präzision für komplexe Aufgaben mit großen Sprachmodellen.

Prompt-Chaining ist eine leistungsstarke Technik, die verwendet wird, um komplexe Aufgaben zu bewältigen, indem sie in eine Reihe von kleineren, miteinander verbundenen Prompts für ein künstliches Intelligenz (KI)-Modell unterteilt werden. Anstatt sich auf einen einzigen, riesigen Prompt zu verlassen, um ein mehrstufiges Problem zu lösen, wird eine Kette erstellt, in der die Ausgabe eines Prompts zur Eingabe für den nächsten wird. Dieser modulare Ansatz verbessert die Zuverlässigkeit, Transparenz und Gesamtleistung von KI-Systemen, insbesondere von Large Language Models (LLMs). Er ermöglicht den Aufbau ausgefeilter Workflows, die Logik, externe Tools und sogar mehrere verschiedene KI-Modelle umfassen können.

Wie Prompt Chaining funktioniert

Im Kern orchestriert Prompt-Chaining eine Abfolge von Aufrufen an ein oder mehrere KI-Modelle. Der Prozess folgt einem logischen Ablauf: Eine anfängliche Eingabeaufforderung wird an das Modell gesendet, seine Antwort wird verarbeitet, und wichtige Informationen aus dieser Antwort werden extrahiert und verwendet, um die nächste Eingabeaufforderung in der Sequenz zu erstellen. Dieser Zyklus wird fortgesetzt, bis das endgültige Ziel erreicht ist. Diese Methodik ist essenziell für den Aufbau von KI-Agenten, die denken und handeln können.

Dieser Ansatz ermöglicht die Aufgabenzerlegung, bei der jeder Schritt in der Kette für eine bestimmte Teilaufgabe optimiert wird. So kann beispielsweise ein Prompt für die Informationsextraktion, der nächste für die Datenzusammenfassung und ein letzter für die kreative Textgenerierung konzipiert sein. Frameworks wie LangChain wurden speziell entwickelt, um die Entwicklung dieser Ketten zu vereinfachen, indem sie den Zustand, die Prompts und die Integration externer Tools verwalten.

Anwendungsfälle in der Praxis

Prompt-Chaining ist vielseitig und hat viele praktische Anwendungen im maschinellen Lernen (ML) und in der Workflow-Automatisierung.

  1. Automatisierter Kundensupport-Agent: Ein Benutzer sendet ein komplexes Support-Ticket.

    • Prompt 1 (Klassifizierung): Ein LLM analysiert die Nachricht des Benutzers, um das Problem zu klassifizieren (z. B. "Rechnung", "Technik", "Kontozugriff").
    • Prompt 2 (Datenabruf): Basierend auf der Klassifizierung "Technik" führt das System einen Retrieval-Augmented Generation (RAG)-Schritt aus. Ein neuer Prompt fordert die KI auf, eine technische Wissensdatenbank nach relevanten Dokumenten zu durchsuchen.
    • Prompt 3 (Antwortgenerierung): Die abgerufenen Dokumente werden in einen abschließenden Prompt eingespeist, der das LLM anweist, die Informationen zusammenzufassen und eine klare Schritt-für-Schritt-Lösung für den Benutzer zu generieren. Erfahren Sie mehr über die Mechanismen von RAG-Systemen.
  2. Multi-modale Inhaltserstellung: Ein Vermarkter möchte eine Social-Media-Kampagne für ein neues Produkt erstellen.

    • Prompt 1 (Textgenerierung): Der Marketer stellt Produktdetails bereit, und ein Prompt fordert ein LLM auf, fünf einprägsame Marketingslogans zu generieren.
    • Prompt 2 (Bildgenerierung): Der gewählte Slogan wird dann als Ausgangspunkt für einen neuen Prompt verwendet, der an ein Text-zu-Bild-Modell wie Stable Diffusion gerichtet ist, um ein entsprechendes Bild zu erstellen.
    • Prompt 3 (Bildanalyse): Ein Computer Vision-Modell, wie z. B. ein benutzerdefiniert trainiertes Ultralytics YOLO-Modell, könnte dann in einem nachfolgenden Schritt verwendet werden, um sicherzustellen, dass das generierte Bild den Markenrichtlinien entspricht (z. B. Bestätigung, dass das korrekte Logo vorhanden ist). Solche Modelle können über Plattformen wie Ultralytics HUB verwaltet und bereitgestellt werden.

Prompt-Chaining vs. verwandte Konzepte

Es ist hilfreich, Prompt-Chaining von ähnlichen Techniken zu unterscheiden:

  • Prompt Engineering: Dies ist die umfassende Praxis der Gestaltung effektiver Prompts. Prompt Chaining ist eine spezielle Technik innerhalb des Prompt Engineerings, die sich auf die sequentielle Strukturierung mehrerer Prompts konzentriert.

  • Chain-of-Thought (CoT) Prompting: CoT zielt darauf ab, die Argumentationsfähigkeit eines LLM innerhalb eines einzelnen Prompts zu verbessern, indem es aufgefordert wird, „Schritt für Schritt zu denken“. Im Gegensatz dazu zerlegt Prompt-Chaining die Aufgabe in mehrere unterschiedliche Prompt-Schritte, die verschiedene Modelle oder Tools in jedem Schritt beinhalten können.

  • Retrieval-Augmented Generation (RAG): RAG ist eine Technik, bei der eine KI Informationen aus einer externen Quelle abruft, bevor sie eine Antwort generiert. RAG wird oft als ein spezifischer Schritt innerhalb einer größeren Prompt-Kette verwendet, nicht als der Verkettungsmechanismus selbst.

  • Prompt Enrichment: Dies beinhaltet das automatische Hinzufügen von Kontext zu einem ursprünglichen Prompt eines Benutzers, bevor er an die KI gesendet wird. Es verbessert einen einzelnen Prompt, anstatt die sequentielle Verarbeitung mehrerer miteinander verbundener Prompts zu orchestrieren.

  • Prompt Tuning: Eine Parameter-effiziente Fine-Tuning (PEFT) Methode, die "Soft Prompts" (Embeddings) während des Modelltrainings erlernt. Es handelt sich um eine Technik zur Modellanpassung, die sich von der Laufzeit-Ausführungsstruktur des Prompt Chaining unterscheidet.

Prompt-Chaining ist eine leistungsstarke Methode zur Strukturierung von Interaktionen mit fortschrittlichen KI-Modellen wie LLMs und sogar zur Integration mit anderen KI-Systemen, einschließlich solcher, die für die Bildklassifizierung oder Instanzsegmentierung verwendet werden. Dies macht komplexe Aufgaben besser handhabbar und verbessert die Zuverlässigkeit der Ergebnisse in verschiedenen Anwendungen des maschinellen Lernens, von der einfachen Datenanalyse bis hin zu ausgefeilten multimodalen KI-Systemen. Der Einsatz von spezialisierten Modellen, die Komponenten solcher Ketten bilden können, wird durch End-to-End-Plattformen erleichtert. Sie können eine Vielzahl von Computer-Vision-Aufgaben erkunden, die in diese fortschrittlichen Workflows integriert werden können.

Treten Sie der Ultralytics-Community bei

Gestalten Sie die Zukunft der KI mit. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten
Link in die Zwischenablage kopiert