Explore how prompt chaining decomposes complex AI tasks into reliable workflows. Learn to integrate [Ultralytics YOLO26](https://docs.ultralytics.com/models/yolo26/) with LLMs for advanced applications.
Prompt Chaining ist ein fortschrittliches Architekturmodell in der Entwicklung künstlicher Intelligenz (KI) , bei dem eine komplexe Aufgabe in eine Abfolge kleinerer, überschaubarer Teilaufgaben zerlegt wird. In diesem Arbeitsablauf dient das Ergebnis eines Schritts – oft generiert durch ein großes Sprachmodell (LLM) oder ein Computer-Vision-System – als Eingabe für den nachfolgenden Schritt. Im Gegensatz zu einem einzigen monolithischen Prompt, der versucht, ein vielschichtiges Problem auf einmal zu lösen, ermöglicht die Verkettung den Entwicklern, zuverlässigere, besser testbare und leistungsfähigere Anwendungen zu erstellen. Dieser modulare Ansatz ist für die Erstellung anspruchsvoller KI-Agenten, die logisch denken, im Internet surfen oder mit physischen Umgebungen interagieren können, unerlässlich.
Im Kern befasst sich Prompt Chaining mit den Einschränkungen von Kontextfenstern und Schlussfolgerungsfähigkeiten in Foundation-Modellen. Wenn ein Modell aufgefordert wird, zu viele unterschiedliche Operationen in einer einzigen Anfrage auszuführen (z. B. „Analysiere dieses Bild, extrahiere den Text, übersetze ihn ins Spanische und formatiere ihn als JSON-Rechnung“), steigt die Fehlerwahrscheinlichkeit. Durch die Aufteilung in eine Pipeline können Entwickler die Genauigkeit jeder einzelnen Phase überprüfen.
Effektive Ketten verwenden oft „Glue-Code“, der in Python oder von Orchestrierungsbibliotheken wie LangChain verwaltet wird, um die Datenumwandlung zwischen den einzelnen Schritten zu verarbeiten. Dies ermöglicht die Integration unterschiedlicher Technologien, wie beispielsweise die Kombination der Sehschärfe der Objekterkennung mit der sprachlichen Gewandtheit generativer Textmodelle.
Prompt Chaining ist besonders leistungsstark, wenn es darum geht, die Lücke zwischen verschiedenen Datenmodalitäten zu schließen, sodass multimodale Modelle in dynamischen industriellen und kommerziellen Umgebungen funktionieren können.
Das folgende Beispiel veranschaulicht das erste „Glied” in einer Kette: die Verwendung von Computer Vision (CV) zur Generierung strukturierter Daten , die als Kontext für eine nachgelagerte Eingabeaufforderung dienen.
from ultralytics import YOLO
# Load the YOLO26 model (natively end-to-end and highly efficient)
model = YOLO("yolo26n.pt")
# Step 1: Run inference to 'see' the environment
results = model("https://ultralytics.com/images/bus.jpg")
# Step 2: Format visual detections into a natural language string
det_names = [model.names[int(c)] for c in results[0].boxes.cls]
prompt_context = f"The scene contains: {', '.join(det_names)}. Please describe the likely activity."
# The 'prompt_context' variable is now ready to be sent to an LLM API
print(prompt_context)
Um effektive Machine-Learning-Architekturen (ML) zu implementieren, ist es hilfreich, Prompt Chaining von ähnlichen Begriffen in der KI-Landschaft zu unterscheiden:
Durch die Nutzung von Prompt Chaining können Teams robuste Anwendungen entwickeln, die Logik, Datenabruf und Aktionserkennung integrieren. Für die Verwaltung der Datensätze und das Training der Vision-Modelle, die diese Ketten antreiben, bietet die Ultralytics eine zentralisierte Lösung für Annotation, Training und Bereitstellung.