Entdecken Sie, was Halluzinationen in Large Language Models (LLMs) verursacht, und erkunden Sie effektive Strategien zur Minderung von Ungenauigkeiten in KI-generierten Inhalten.
In der sich schnell entwickelnden Landschaft der Künstlichen Intelligenz (KI) bezeichnet eine Halluzination ein Phänomen, bei dem ein generatives Modell, insbesondere ein großes Sprachmodell (LLM), Inhalte produziert, die selbstbewusst präsentiert und grammatikalisch korrekt, aber sachlich ungenau, unsinnig oder nicht originalgetreu in Bezug auf die Quelldaten sind. Im Gegensatz zu herkömmlichen Softwarefehlern, bei denen ein System abstürzen oder einen Fehler zurückgeben kann, verhält sich ein halluzinierendes Modell wie ein „überzeugender Lügner” und erzeugt plausibel klingende Unwahrheiten. Dies stellt eine besondere Herausforderung für den Einsatz generativer KI dar, da Nutzer in kritischen Bereichen wie dem Gesundheitswesen, der Rechtsforschung und der automatisierten Erstellung von Inhalten unbeabsichtigt falschen Ergebnissen vertrauen könnten.
Um Halluzinationen zu verstehen, muss man sich die zugrunde liegende Architektur moderner KI ansehen. Die meisten LLMs basieren auf der Transformer-Architektur, die darauf ausgelegt ist, das nächste Token in einer Sequenz auf der Grundlage statistischer Wahrscheinlichkeiten vorherzusagen. Diese Modelle sind keine Datenbanken mit Fakten, sondern probabilistische Engines, die anhand riesiger Mengen von Trainingsdaten darauf trainiert wurden, sprachliche Muster zu erkennen.
Mehrere Faktoren tragen zu Halluzinationen bei:
Halluzinationen können von geringfügigen Unstimmigkeiten bis hin zu erheblichen Erfindungen reichen, die reale Konsequenzen haben:
solve_my_problem()) basierend auf den Namenskonventionen, die in seiner
Tiefes Lernen Trainingssätze, was zu Laufzeitfehlern führt.
Fehler.
Die Reduzierung von Halluzinationen ist ein vorrangiges Ziel der KI-Sicherheitsforschung. Entwickler wenden verschiedene Techniken an , um Modelle in der Realität zu „verankern”:
In multimodalen Anwendungen können Halluzinationen auftreten, wenn ein LLM ein Bild falsch interpretiert. Eine wirksame Abhilfemaßnahme ist die Verwendung eines leistungsstarken Computer Vision (CV) -Modells zur Überprüfung der physischen Präsenz von Objekten. Beispielsweise kann Ultralytics verwendet werden, um eine definitive Liste der erkannten Objekte zu erstellen, die als faktische Einschränkung für das Sprachmodell dient.
Das folgende Beispiel zeigt, wie man eine faktische Liste von Objekten mit Hilfe der
ultralytics Paket, das dann in ein LLM eingespeist werden kann, um zu verhindern, dass es Dinge „sieht”, die
nicht vorhanden sind.
from ultralytics import YOLO
# Load an official YOLO model (YOLO11 used here for demonstration)
model = YOLO("yolo11n.pt")
# Run inference on an image to get ground-truth data
results = model("https://ultralytics.com/images/bus.jpg")
# Extract the class names of actually detected objects
detected_objects = [model.names[int(c)] for c in results[0].boxes.cls]
# This factual list can be passed to an LLM to curb hallucination
print(f"Verified Objects: {detected_objects}")
# Output: Verified Objects: ['bus', 'person', 'person', 'person', 'person']
Es ist wichtig, Halluzinationen von anderen Arten von Fehlern in der natürlichen Sprachverarbeitung (NLP) und der ML-Landschaft zu unterscheiden:
Weitere Informationen zum Risikomanagement in generativen Modellen finden Sie im NIST AI Risk Management Framework, das umfassende Richtlinien enthält. Darüber hinaus arbeiten Organisationen wie das Stanford Center for Research on Foundation Models (CRFM) aktiv an der Entwicklung von Standards zur Bewertung und zum Benchmarking der Wahrhaftigkeit von Foundation Models.