Entdecken Sie, was Halluzinationen in Large Language Models (LLMs) verursacht, und erkunden Sie effektive Strategien zur Minderung von Ungenauigkeiten in KI-generierten Inhalten.
Im Kontext der Große Sprachmodelle (LLMs)tritt eine Halluzination auf, wenn ein generatives Modell Inhalte produziert, die sicher und syntaktisch fließend sind, aber faktisch falsch, unsinnig oder nicht originalgetreu ist. Im Gegensatz zu Standardfehlern beim Abrufen von Datenbanken, Halluzinationen in der Generative KI sind Halluzinationen in der Generativen KI oft plausibel, so dass sie für die Benutzer ohne unabhängige Überprüfung schwer zu detect . Dieses Phänomen ist auf das grundlegende Design dieser Modelle zurückzuführen, die vorrangig Textgenerierung basierend auf statistischen Wahrscheinlichkeit und nicht auf der Wahrheitsprüfung basieren. Das Verständnis von Halluzinationen ist entscheidend für den Einsatz sicherer KI Systeme zu verstehen, insbesondere in Branchen mit hohem Risiko wie dem Gesundheitswesen, dem Finanzwesen und dem Rechtswesen.
Die Hauptursache für Halluzinationen liegt in der Transformator Architektur und den Trainingsziele, die für die Erstellung von Basismodellen verwendet werden. Diese Systeme werden darauf trainiert, die nächste Token in einer Sequenz auf der Grundlage von Mustern die aus großen Mengen von Trainingsdaten. Sie besitzen kein inhärentes Konzept von "Fakt" oder "Fiktion"; vielmehr modellieren sie die Wahrscheinlichkeit des gemeinsamen Auftretens von Wörtern.
Mehrere Faktoren tragen zu diesem Verhalten bei:
Halluzinationen können sich in verschiedenen Formen manifestieren, die von subtilen Ungenauigkeiten bis hin zu kompletten Fälschungen reichen:
ultralytics.detect_everything()) auf der Grundlage von Standard-Namenskonventionen, die es in seinen
Trainingsdaten gesehen hat, auch wenn diese spezielle Funktion nie implementiert wurde.
Die Verringerung von Halluzinationen ist ein wichtiger Schwerpunkt der KI-Sicherheit Forschung. Mehrere Techniken werden derzeit eingesetzt, um Modelle an der Realität zu orientieren:
Eine wirksame Methode zur Abschwächung von Halluzinationen in multimodalen Arbeitsabläufen ist die Verwendung eines hochpräzisen Objekterkennung Modell zur Verifizierung den physischen Inhalt eines Bildes zu überprüfen, bevor ein LLM es beschreibt. Durch die Einspeisung einer verifizierten Liste von Objekten in den Kontext des LLM Kontext einspeist, verhindert man, dass dieser Elemente erfindet, die nicht vorhanden sind.
Das folgende Beispiel zeigt, wie man Ultralytics YOLO11 zur Erzeugung einer Liste von Objekten zu erstellen, die dann als faktische Einschränkung für ein generatives Modell dienen kann.
from ultralytics import YOLO
# Load the official YOLO11 model
model = YOLO("yolo11n.pt")
# Run inference on an image to get factual data
results = model("https://ultralytics.com/images/bus.jpg")
# Extract the class names of detected objects to ground the LLM
detected_objects = [model.names[int(c)] for c in results[0].boxes.cls]
# This list prevents the LLM from hallucinating objects not present
print(f"Verified Objects: {detected_objects}")
# Output: Verified Objects: ['bus', 'person', 'person', 'person', 'person']
Es ist wichtig, Halluzinationen von anderen Arten von KI-Fehlern zu unterscheiden:
Weitere Informationen zur Bewertung generativer Modelle finden Sie in der NIST AI Risk Management Framework bietet einen umfassenden Überblick über Zuverlässigkeits- und Sicherheitsstandards. Außerdem entwickeln die Forscher weiterhin Algorithmen zur Faktenüberprüfung zur automatischen detect und Kennzeichnung halluzinatorischer Inhalte in Echtzeit.