Yolo Vision Shenzhen
Shenzhen
Jetzt beitreten
Glossar

Chain-of-Thought Prompting

Steigern Sie die KI-Argumentation mit Chain-of-Thought-Prompting! Verbessern Sie Genauigkeit, Transparenz und Kontextbeibehaltung für komplexe, mehrstufige Aufgaben.

Chain-of-Thought (CoT) Prompting ist eine ausgefeilte Technik im Prompt-Engineering zur Verbesserung der Argumentationsfähigkeiten von Large Language Models (LLMs) zu verbessern. Anstatt ein KI-Modell aufzufordern, eine sofortige Antwort auf eine komplexe Anfrage zu geben, weist das CoT-Prompting das Modell an, das Problem in eine Reihe von logischen Zwischenschritten zu unterteilen. Diese Methode ahmt den menschlichen Problemlösungsprozess nach, Sie erlaubt dem Modell, "laut zu denken", bevor es zu einer endgültigen Schlussfolgerung kommt. Durch die Generierung einer Abfolge von kann das Modell seine Leistung bei Aufgaben, die Arithmetik, logisches Denken und symbolische Logik erfordern, erheblich verbessern. logisches Denken und symbolische Logik erfordern. Dieser Ansatz wurde von Forschern bei Google Brain, die gezeigt haben, dass strukturierte Denkprozesse zu zuverlässigeren und genaueren Künstliche Intelligenz (KI) führt.

Mechanismen der Gedankenkette

Die Wirksamkeit von CoT liegt in seiner Fähigkeit, komplexe Aufgaben in überschaubare Komponenten zu zerlegen. Dies hilft nicht nur hilft nicht nur, die Kohärenz des Modells aufrechtzuerhalten, sondern bietet auch Transparenz darüber, wie eine Antwort abgeleitet wurde, ein Schlüsselfaktor für Erklärbare KI (XAI). Es gibt zwei primäre Möglichkeiten um diese Strategie umzusetzen:

  • Zero-Shot CoT: Hierbei wird eine Triggerphrase wie "Denken wir Schritt für Schritt" an das Ende einer Aufforderung. Wie in der Forschung über Zero-Shot Reasoners beschrieben, aktiviert diese einfache Anweisung die Denkfähigkeiten des Modells Denkfähigkeiten des Modells, ohne dass spezifische Beispiele benötigt werden, wodurch Zero-Shot-Lernen zur Bewältigung neuartiger Aufgaben.
  • Few-Shot CoT: In diesem Szenario enthält die Aufforderung einige Beispiele für Fragen, die mit ihren schrittweisen Lösungen. Dies nutzt das few-shot learning, bei dem das Modell das Denkmuster aus dem vorgegebenen Kontext lernt und es auf die neue Eingabe anwendet.

Anwendungsfälle in der Praxis

Chain-of-Thought Prompting verändert die Art und Weise, wie Entwickler Anwendungen in verschiedenen Bereichen erstellen, insbesondere wo Präzision und Logik von größter Bedeutung sind.

  1. Analyse komplexer Daten: In Bereichen wie Finanzen oder Datenanalyse, wird CoT verwendet, um Modelle durch durch mehrstufige Berechnungen zu leiten. So könnte ein Analyst eine KI beispielsweise auffordern, "zuerst die Umsatzzahlen für Umsatzzahlen für Q1 zu extrahieren, dann die Inflation mit dem Verbraucherpreisindex zu bereinigen und schließlich die Wachstumsrate mit dem vorherigen Geschäftsjahr." Dieser strukturierte Ansatz reduziert Berechnungsfehler, die bei direkten Antwortaufforderungen häufig auftreten.
  2. Codegenerierung und Fehlersuche: Entwickler verwenden CoT, um robusten Code zu erzeugen für Computer Vision (CV) Aufgaben. Anstatt einfach ein Skript anzufordern, könnte ein Benutzer das Modell bitten, die Logik für das Laden eines Datensatzes, die Konfiguration der Modellarchitektur Architektur und die Ausführung der Trainingsschleife. Dadurch wird sichergestellt, dass generierte Skripte für Bibliotheken wie ultralytics logisch fundiert und syntaktisch korrekt sind.

Code-Beispiel

CoT ist zwar eine textbasierte Technik, wird aber häufig verwendet, um korrekten Python für maschinelle Lernprozesse zu erzeugen. Arbeitsabläufe. Das folgende Beispiel zeigt, wie ein Prompt-String in Python strukturiert werden kann, um eine Schritt-für-Schritt Lösung für die Verwendung von YOLO11 um Objekte detect .

# Example of a Chain-of-Thought prompt structure for generating YOLO11 code
prompt = """
Task: Write a Python script to detect objects in a video stream using YOLO11.

Chain of Thought:
1. Import the YOLO class from the ultralytics package.
2. Load the pre-trained 'yolo11n.pt' model weights.
3. Define the source as '0' for the webcam or a video file path.
4. Run the predict() method with show=True to visualize results in real-time.

Now, generate the Python code based on these steps.
"""

print(f"Sending the following prompt to LLM:\n{prompt}")

Vergleich mit verwandten Konzepten

Es ist wichtig, das Chain-of-Thought Prompting von anderen Techniken des maschinellen Lernens (ML) zu unterscheiden:

  • Prompt Verkettung: Während CoT innerhalb eines einzigen Prompt-Response-Zyklus stattfindet, beinhaltet Prompt Chaining die Unterteilung einer Aufgabe in eine Folge von separaten API-Aufrufen, wobei die Ausgabe eines Prompts die Eingabe für den nächsten ist. CoT konzentriert sich auf interne Argumentation, während sich die Verkettung auf die Workflow-Orchestrierung konzentriert.
  • Retrieval-Augmented Generation (RAG): Bei der RAG werden externe Daten abgerufen, um das Wissen des Modells zu erweitern, bevor eine Antwort generiert wird. CoT kann mit RAG kombiniert werden (z.B. "Zuerst das Dokument abrufen, dann über den Inhalt nachdenken"), aber CoT bezieht sich jedoch speziell auf die Struktur der Schlussfolgerungen und nicht auf den Mechanismus zum Abrufen von Daten.
  • Prompt Tuning: Dies ist eine parameter-effiziente Feinabstimmung (PEFT) Methode, die kontinuierliche Soft Prompts (Vektoren) während des Trainings optimiert. Im Gegensatz dazu ist CoT eine diskrete, natürlichsprachliche sprachliche Prompting-Strategie, die zur Inferenzzeit angewandt wird, ohne die Modell Gewichte.

Durch die Integration von Chain-of-Thought Prompting können Entwickler das volle Potenzial der generativen KI erschließen und sicherstellen, dass die Modelle nicht nur Antworten liefern, sondern auch die logische Gültigkeit ihrer Lösungen demonstrieren. Dies ist entscheidend für den Einsatz von zuverlässigen KI-Agenten in kritischen Umgebungen.

Werden Sie Mitglied der Ultralytics

Gestalten Sie die Zukunft der KI mit. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten