Yolo Vision Shenzhen
Shenzhen
Jetzt beitreten
Glossar

Prompt Chaining

Explore how prompt chaining decomposes complex AI tasks into reliable workflows. Learn to integrate [Ultralytics YOLO26](https://docs.ultralytics.com/models/yolo26/) with LLMs for advanced applications.

Prompt Chaining ist ein fortschrittliches Architekturmodell in der Entwicklung künstlicher Intelligenz (KI) , bei dem eine komplexe Aufgabe in eine Abfolge kleinerer, überschaubarer Teilaufgaben zerlegt wird. In diesem Arbeitsablauf dient das Ergebnis eines Schritts – oft generiert durch ein großes Sprachmodell (LLM) oder ein Computer-Vision-System – als Eingabe für den nachfolgenden Schritt. Im Gegensatz zu einem einzigen monolithischen Prompt, der versucht, ein vielschichtiges Problem auf einmal zu lösen, ermöglicht die Verkettung den Entwicklern, zuverlässigere, besser testbare und leistungsfähigere Anwendungen zu erstellen. Dieser modulare Ansatz ist für die Erstellung anspruchsvoller KI-Agenten, die logisch denken, im Internet surfen oder mit physischen Umgebungen interagieren können, unerlässlich.

Die Mechanik der Verkettung

Im Kern befasst sich Prompt Chaining mit den Einschränkungen von Kontextfenstern und Schlussfolgerungsfähigkeiten in Foundation-Modellen. Wenn ein Modell aufgefordert wird, zu viele unterschiedliche Operationen in einer einzigen Anfrage auszuführen (z. B. „Analysiere dieses Bild, extrahiere den Text, übersetze ihn ins Spanische und formatiere ihn als JSON-Rechnung“), steigt die Fehlerwahrscheinlichkeit. Durch die Aufteilung in eine Pipeline können Entwickler die Genauigkeit jeder einzelnen Phase überprüfen.

Effektive Ketten verwenden oft „Glue-Code“, der in Python oder von Orchestrierungsbibliotheken wie LangChain verwaltet wird, um die Datenumwandlung zwischen den einzelnen Schritten zu verarbeiten. Dies ermöglicht die Integration unterschiedlicher Technologien, wie beispielsweise die Kombination der Sehschärfe der Objekterkennung mit der sprachlichen Gewandtheit generativer Textmodelle.

Anwendungsfälle in der Praxis

Prompt Chaining ist besonders leistungsstark, wenn es darum geht, die Lücke zwischen verschiedenen Datenmodalitäten zu schließen, sodass multimodale Modelle in dynamischen industriellen und kommerziellen Umgebungen funktionieren können.

  1. Automatisierte visuelle Berichterstellung: In der intelligenten Fertigung kann ein Qualitätskontrollsystem ein Bildverarbeitungsmodell mit einem LLM verknüpfen. Zunächst scannt ein Hochgeschwindigkeitsmodell wie Ultralytics die Komponenten auf einem Fließband. Die strukturierte Ausgabe (z. B. „Klasse: Dented_Can, Konfidenz: 0,92”) wird in eine Textzeichenfolge umgewandelt. Dieser Text wird dann an ein Sprachmodell mit einer Eingabeaufforderung wie „Entwerfen Sie eine Wartungsanforderung basierend auf diesem Defekt” weitergeleitet, wodurch eine für Menschen lesbare E-Mail für den Abteilungsleiter generiert wird.
  2. Kontextbewusster Kundensupport: Intelligente Chatbots verwenden häufig Verkettungen, um komplexe Benutzeranfragen zu navigieren . Das erste Glied in der Kette könnte Natural Language Processing (NLP) verwenden, um die Absicht classify . Wenn die Absicht technischer Natur ist, löst das System einen Retrieval-Augmented Generation (RAG) -Workflow aus: Es generiert Einbettungen für die Anfrage, durchsucht eine Vektordatenbank nach Dokumentation und fordert schließlich ein LLM auf, die abgerufenen Teile zu einer hilfreichen Antwort zusammenzufassen.

Beispiel für einen Vision-to-Language-Code

Das folgende Beispiel veranschaulicht das erste „Glied” in einer Kette: die Verwendung von Computer Vision (CV) zur Generierung strukturierter Daten , die als Kontext für eine nachgelagerte Eingabeaufforderung dienen.

from ultralytics import YOLO

# Load the YOLO26 model (natively end-to-end and highly efficient)
model = YOLO("yolo26n.pt")

# Step 1: Run inference to 'see' the environment
results = model("https://ultralytics.com/images/bus.jpg")

# Step 2: Format visual detections into a natural language string
det_names = [model.names[int(c)] for c in results[0].boxes.cls]
prompt_context = f"The scene contains: {', '.join(det_names)}. Please describe the likely activity."

# The 'prompt_context' variable is now ready to be sent to an LLM API
print(prompt_context)

Unterscheidung von verwandten Konzepten

Um effektive Machine-Learning-Architekturen (ML) zu implementieren, ist es hilfreich, Prompt Chaining von ähnlichen Begriffen in der KI-Landschaft zu unterscheiden:

  • Vs. Chain-of-Thought-Prompting: Chain-of-Thought (CoT) ist eine Technik, die innerhalb eines einzelnen Prompts verwendet wird, um ein Modell dazu anzuregen, „seine Arbeit zu zeigen“ (z. B. „Denke Schritt für Schritt“). Das Prompt-Chaining umfasst mehrere unterschiedliche API-Aufrufe, wobei die Eingabe für Schritt B von der Ausgabe von Schritt A abhängt.
  • Vs. Prompt Engineering: Prompt Engineering ist die umfassendere Disziplin der Optimierung von Texteingaben, um eine bessere Modellleistung zu erzielen. Chaining ist ein spezifisches Engineering-Muster, das sich auf den sequenziellen Ablauf von Operationen und die Logiksteuerung konzentriert.
  • Vs. Prompt-Tuning: Prompt-Tuning ist eine Modelloptimierungsmethode , die lernbare Parameter (Soft Prompts) während einer Trainingsphase aktualisiert. Das Prompt-Chaining erfolgt vollständig während der Echtzeit-Inferenz und verändert nicht die Modellgewichte des Modells.

Durch die Nutzung von Prompt Chaining können Teams robuste Anwendungen entwickeln, die Logik, Datenabruf und Aktionserkennung integrieren. Für die Verwaltung der Datensätze und das Training der Vision-Modelle, die diese Ketten antreiben, bietet die Ultralytics eine zentralisierte Lösung für Annotation, Training und Bereitstellung.

Werden Sie Mitglied der Ultralytics

Gestalten Sie die Zukunft der KI mit. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten