Schalten Sie ein zu YOLO Vision 2025!
25. September 2025
10:00 — 18:00 Uhr BST
Hybride Veranstaltung
Yolo Vision 2024
Glossar

Halluzination (in LLMs)

Entdecken Sie, was Halluzinationen in Large Language Models (LLMs) verursacht, und erkunden Sie effektive Strategien zur Minderung von Ungenauigkeiten in KI-generierten Inhalten.

Im Kontext von Large Language Models (LLMs) bezieht sich eine Halluzination auf ein Phänomen, bei dem das Modell Text generiert, der selbstsicher und plausibel klingt, aber faktisch falsch, unsinnig oder nicht in den bereitgestellten Quelldaten verankert ist. Diese Modelle, die für die fortgeschrittene Textgenerierung entwickelt wurden, können manchmal Fakten, Quellen oder Details erfinden und diese so darstellen, als wären sie wahr. Dies geschieht, weil das Hauptziel eines LLMs darin besteht, das nächste Wort in einer Sequenz vorherzusagen, um kohärente Sätze zu bilden, und nicht die Richtigkeit der von ihm generierten Informationen zu überprüfen. Das Verständnis und die Abschwächung von Halluzinationen ist eine zentrale Herausforderung, um Generative AI zuverlässiger zu machen.

Warum halluzinieren LLMs?

Halluzinationen sind keine absichtlichen Täuschungen, sondern Nebenprodukte der Art und Weise, wie LLMs aufgebaut und trainiert werden. Die Hauptursachen sind:

  • Unvollkommenheiten in den Trainingsdaten: Modelle wie GPT-3 und GPT-4 lernen aus riesigen Textmengen aus dem Internet, die zwangsläufig Fehler, veraltete Informationen und algorithmische Verzerrungen enthalten. Das Modell lernt diese Muster aus seinen Trainingsdaten ohne ein inhärentes Verständnis von Wahrheit.
  • Architektonisches Design: Die zugrunde liegende Transformer-Architektur ist für Mustererkennung und Sprachmodellierung optimiert, nicht für faktisches Erinnern oder logisches Denken. Dies kann zu dem führen, was einige Forscher als "stochastischer Papagei" bezeichnen, eine Entität, die Sprache nachahmen kann, ohne ihre Bedeutung zu verstehen.
  • Inferenzzeit-Ambiguität: Während der Generierung kann das Modell, wenn es sich über das nächste beste Token unsicher ist, die „Lücken füllen“ mit plausiblen, aber erfundenen Informationen. Die Anpassung von Inferenzparametern wie der Temperatur kann dies manchmal reduzieren, aber es bleibt eine zentrale Herausforderung. Einen technischen Überblick bietet diese Übersicht über LLM-Halluzinationen von arXiv.

Beispiele für Halluzinationen in der Praxis

  • Juristische Recherche: Ein Anwalt, der einen KI-Assistenten für die Fallrecherche verwendete, bat ihn, juristische Präzedenzfälle zu finden. Der Chatbot zitierte mehrere vollständig erfundene Gerichtsfälle, einschließlich Fallnamen und juristischer Analysen, die plausibel, aber nicht existent waren. Dieser Vorfall aus der realen Welt verdeutlichte die ernsten Risiken des Einsatzes von LLMs in risikoreichen Bereichen ohne robuste Faktenprüfung.
  • Produktempfehlungen: Ein Benutzer fragt einen Chatbot nach dem "besten Wanderrucksack mit integriertem Solarpanel". Das LLM könnte selbstbewusst ein bestimmtes Modell empfehlen und dessen Funktionen detailliert beschreiben, selbst wenn dieses spezielle Produkt oder diese Kombination von Funktionen nicht existiert. Das Modell kombiniert Konzepte aus seinen Trainingsdaten, um ein plausibles, aber fiktives Produkt zu erstellen.

Wie man Halluzinationen reduziert

Forscher und Entwickler arbeiten aktiv an verschiedenen Strategien zur Risikominderung:

Halluzination vs. andere KI-Fehler

  • Bias in KI: Bias in KI bezieht sich auf systematische Fehler, bei denen die Ausgaben eines Modells bestimmte Gruppen unfair bevorzugen, was in der Regel gesellschaftliche oder Datensatzverzerrungen widerspiegelt. Halluzination bezieht sich auf faktische Unrichtigkeit, nicht unbedingt auf Vorurteile. Beide sind ernsthafte Bedenken in der KI-Ethik.
  • Fehler in der Computer Vision: Das Konzept der Halluzination wird hauptsächlich mit der natürlichen Sprachverarbeitung (NLP) in Verbindung gebracht. In der Computer Vision (CV) bedeutet ein Fehler typischerweise, dass ein Modell wie Ultralytics YOLO einen Fehler bei der Objekterkennung macht (z. B. eine Katze fälschlicherweise als Hund einstuft) oder ein Objekt nicht erkennt, was sich auf seine Genauigkeit bezieht. Dies ist ein Wahrnehmungsfehler, keine Erfindung von Informationen. Da jedoch multimodale Modelle, die Vision und Sprache vereinen, immer häufiger werden, können sie auch falsche Beschreibungen von Bildern "halluzinieren". Die Verwaltung beider Modelltypen kann auf Plattformen wie Ultralytics HUB optimiert werden.

Treten Sie der Ultralytics-Community bei

Gestalten Sie die Zukunft der KI mit. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten
Link in die Zwischenablage kopiert