Erfahren Sie, wie „Chain of Verification“ (CoVe) Halluzinationen bei großen Sprachmodellen (LLM) reduziert. Lernen Sie, wie Sie mit dieser Prompt-Engineering-Technik und Ultralytics die sachliche Genauigkeit verbessern können.
Chain of Verification (CoVe) ist eine fortschrittliche Methode zur Verbesserung der Informationsverarbeitung , die Ungenauigkeiten und sachliche Fehler in den Ausgaben großer Sprachmodelle (LLMs) reduziert. Mit zunehmender Komplexität von KI-Systemen stellt deren Tendenz, falsche Informationen selbstsicher zu generieren – ein Phänomen, das als LLM-Halluzination bekannt ist – weiterhin eine große Herausforderung dar. CoVe begegnet diesem Problem, indem das Modell gezwungen wird, seine eigenen ersten Antworten systematisch auf ihren Wahrheitsgehalt zu überprüfen, bevor dem Benutzer eine endgültige Antwort präsentiert wird. Dieser Selbstkorrekturmechanismus verbessert die Zuverlässigkeit generativer KI- Anwendungen in verschiedenen Branchen erheblich.
Die CoVe-Methodik unterteilt den Generierungsprozess in vier klar voneinander abgegrenzte, aufeinanderfolgende Schritte. Dieser strukturierte Ansatz spiegelt die Arbeitsabläufe menschlicher Faktenprüfung wider und wird von führenden KI-Organisationen aktiv erforscht, um die Sicherheit und Ausrichtung von KI zu verbessern.
Obwohl CoVe häufig mit Chain-of-Thought Prompting verglichen wird, verfolgen die beiden Ansätze unterschiedliche Ziele. Chain-of-Thought ermutigt ein Modell, seine Vorgehensweise offenzulegen, indem komplexe logische Schlussfolgerungen in schrittweise Komponenten zerlegt werden, um ein Problem zu lösen. Chain of Verification hingegen zielt speziell auf die faktische Richtigkeit ab, indem Aussagen nach der Erstellung eines Entwurfs geprüft und überarbeitet werden. Darüber hinaus kann CoVe mit Retrieval-Augmented Generation (RAG) -Pipelines kombiniert werden, bei denen der Verifizierungsschritt Referenzdaten aus einer externen Vektordatenbank abruft, anstatt sich ausschließlich auf die internen Gewichtungen des Modells zu verlassen.
CoVe ist besonders vorteilhaft in Bereichen, in denen faktische Genauigkeit entscheidend ist. Durch die Integration dieser Selbstprüfungsschleife können Entwickler KI- Systeme auch mit anspruchsvolleren Aufgaben betrauen.
Um den „Ausführen“-Schritt von CoVe zu optimieren, können Entwickler maßgebliche Machine-Learning- Modelle nach Referenzdaten abfragen. Beispielsweise kann ein LLM mithilfe von Ultralytics YOLO26 zur Objekterkennung physikalische Aussagen zu einem Bild überprüfen. Teams können diese Datensätze effizient verwalten und die Bildverarbeitungsmodelle über die intuitive Ultralytics -Plattform bereitstellen.
Das folgende Python zeigt, wie man die ultralytics Paket zum Extrahieren einer verifizierten Liste von Objekten, die als faktische Grundlage für einen LLM dienen kann, der einen Chain-of-Verification-Schritt ausführt.
from ultralytics import YOLO
# Load the YOLO26n model to act as a factual verification source
model = YOLO("yolo26n.pt")
# Run inference on an image to get ground-truth detections
results = model("https://ultralytics.com/images/bus.jpg")
# Extract the class names of actually detected objects for CoVe grounding
detected_objects = [model.names[int(c)] for c in results[0].boxes.cls]
# Pass this factual list to the LLM during its verification execution step
print(f"CoVe Ground Truth Facts: {detected_objects}")
# Output example: ['bus', 'person', 'person', 'person', 'person']
Durch die Integration deterministischer Ausgaben von leistungsstarken Bildverarbeitungsframeworks wie PyTorch in die CoVe-Pipeline können Entwickler generative Fehler drastisch reduzieren und robuste, vertrauenswürdige multimodale KI- Anwendungen erstellen.