Glossar

Halluzination (bei LLMs)

Entdecken Sie, was Halluzinationen in Large Language Models (LLMs) verursacht, und erforschen Sie effektive Strategien, um Ungenauigkeiten in KI-generierten Inhalten zu verringern.

Halluzination bezeichnet ein Phänomen, bei dem ein Large Language Model (LLM) Text erzeugt, der unsinnig, sachlich falsch oder ohne Bezug zum vorgegebenen Eingabekontext ist, obwohl er sicher und kohärent erscheint. Diese Ausgaben beruhen nicht auf den Trainingsdaten des Modells oder der externen Realität, sondern sind Artefakte der internen Prozesse des Modells, die versuchen, das nächste wahrscheinlichste Wort oder Token vorherzusagen. Das Verständnis von Halluzinationen ist von entscheidender Bedeutung für die verantwortungsvolle Entwicklung und den Einsatz von Systemen der künstlichen Intelligenz (KI), insbesondere von solchen, die für die Informationsbeschaffung, die Erstellung von Inhalten oder die Entscheidungsfindung auf Plattformen wie Chatbots oder virtuellen Assistenten eingesetzt werden.

Warum Halluzinationen auftreten

LLMs, die oft auf Architekturen wie dem Transformer (vorgestellt im Paper"Attention Is All You Need") aufbauen, sind grundsätzlich probabilistische Modelle. Sie lernen Muster, Grammatik und faktische Assoziationen aus großen Mengen von Textdaten während des Trainings mit Frameworks wie PyTorch oder TensorFlow. Allerdings fehlt es ihnen an echtem Verständnis, Bewusstsein oder der Fähigkeit, Informationen an sich zu verifizieren. Halluzinationen können durch verschiedene Faktoren entstehen:

  • Beschränkungen der Trainingsdaten: Das Modell könnte auf verrauschten, verzerrten oder sachlich falschen Daten trainiert worden sein, oder es könnte nicht genügend Informationen zu einem bestimmten Thema enthalten. Es versucht, die Lücken auf der Grundlage gelernter Muster zu füllen, was zu Fälschungen führt.
  • Modellarchitektur und Training: Die Art und Weise, wie Modelle wie GPT-4 Informationen verarbeiten und Wort-für-Wort-Sequenzen erzeugen, kann sie auf statistisch plausible, aber faktisch falsche Pfade führen. Die Komplexität von Deep-Learning-Modellen macht sie anfällig für unvorhersehbares Verhalten.
  • Dekodierungsstrategie: Die bei der Texterstellung (Inferenz) verwendeten Parameter, wie z. B. die "Temperatur", beeinflussen die Zufälligkeit. Höhere Temperaturen fördern die Kreativität, erhöhen aber das Risiko von Halluzinationen.
  • Fehlende Grundlage: Ohne Mechanismen, die eine Verbindung zwischen dem generierten Text und dem realen Wissen oder bestimmten Quelldokumenten herstellen, kann das Modell in ungestützte Aussagen abdriften. Techniken wie Grounding zielen darauf ab, dies zu beheben.
  • Mehrdeutigkeit von Aufforderungen: Vage oder schlecht formulierte Eingabeaufforderungen können dazu führen, dass das Modell Annahmen trifft oder eine weniger eingeschränkte Ausgabe erzeugt, was die Wahrscheinlichkeit von Ungenauigkeiten erhöht. Effektive Eingabeaufforderungstechnik ist der Schlüssel.

Beispiele aus der Praxis und Auswirkungen

Halluzinationen können sich auf verschiedene Weise manifestieren und stellen ein erhebliches Risiko dar, z. B. die Verbreitung von Fehlinformationen, die Erstellung schädlicher Inhalte oder die Untergrabung des Vertrauens der Nutzer in KI-Systeme.

  1. Tatsachenfälschung in Chatbots: Ein Nutzer könnte einen Chatbot nach einer bestimmten wissenschaftlichen Entdeckung fragen, und der Chatbot könnte Details erfinden, die Entdeckung der falschen Person zuschreiben oder ein nicht existierendes Ereignis mit großer Sicherheit beschreiben.
  2. Erfundene Rechtszitate: In einem weithin berichteten Vorfall verwendeten Anwälte ein KI-Tool für juristische Recherchen, das völlig erfundene Fallzitate generierte, die in Gerichtsdokumenten präsentiert wurden, was zu Sanktionen führte.

Die Auswirkungen gehen über einfache Fehler hinaus und stellen die Zuverlässigkeit von KI-Systemen in Frage, insbesondere wenn sie in Suchmaschinen(wie Googles KI-Übersicht), virtuelle Assistenten und Tools zur Erstellung von Inhalten integriert werden. Die Bewältigung dieses Problems ist eine zentrale Herausforderung im Bereich der KI-Ethik und -Sicherheit und erfordert robuste Validierungs- und Überwachungsstrategien.

Unterscheidung zwischen Halluzinationen und anderen Irrtümern

Es ist wichtig, Halluzinationen von anderen Arten von KI-Fehlern zu unterscheiden:

  • Verzerrungen in der KI: Dies bezieht sich auf systematische Fehler oder verzerrte Ergebnisse, die Verzerrungen in den Trainingsdaten widerspiegeln (z. B. Geschlechter- oder Rassenstereotypen). Halluzinationen sind in der Regel eher zufällige Erfindungen als konsistente, verzerrte Ergebnisse. Das Verständnis der Verzerrung von Datensätzen ist hier entscheidend.
  • Überanpassung: Dies ist der Fall, wenn ein Modell die Trainingsdaten zu gut lernt, einschließlich des Rauschens, und nicht in der Lage ist, auf neue, ungesehene Daten(Validierungsdaten) zu verallgemeinern. Die Überanpassung führt zwar zu einer schlechten Leistung, unterscheidet sich aber von der Erzeugung völlig neuer, falscher Informationen.
  • Veraltete Informationen: Ein LLM kann falsche Informationen liefern, einfach weil seine Trainingsdaten nicht aktuell sind. Dabei handelt es sich um einen faktischen Fehler, der auf der Wissensabgrenzung beruht, und nicht um eine Halluzination, bei der Informationen erfunden werden.

Strategien zur Schadensbegrenzung

Forscher und Entwickler arbeiten aktiv an der Verringerung von LLM-Halluzinationen:

  • Verbesserte Trainingsdaten: Kuratieren Sie qualitativ hochwertigere, vielfältigere und auf Fakten geprüfte Datensätze. Die Verwendung hochwertiger Benchmark-Datensätze ist hilfreich.
  • Retrieval-Augmented Generation (RAG): Ausstattung von LLMs mit der Fähigkeit, Informationen aus externen, zuverlässigen Wissensdatenbanken(wie Vektordatenbanken) abzurufen und zu zitieren, bevor eine Antwort generiert wird.
  • Feinabstimmung und RLHF: Verfeinerung der Basismodelle anhand spezifischer Aufgaben oder Datensätze und Anwendung von Techniken wie Reinforcement Learning from Human Feedback (RLHF), um das Modellverhalten mit den gewünschten Ergebnissen (z. B. Wahrhaftigkeit) abzustimmen.
  • Besseres Prompting: Techniken wie die Gedankenkette regen die Modelle dazu an, "Schritt für Schritt zu denken", wodurch Fehler vermieden werden können.
  • Überprüfung der Ausgabe: Implementierung von Mechanismen zum Abgleich der generierten Aussagen mit bekannten Fakten oder mehreren Quellen.
  • Anpassung der Inferenzparameter: Wenn Sie Einstellungen wie "Temperatur" herabsetzen, werden die Ergebnisse zielgerichteter und weniger zufällig, was das Risiko von Halluzinationen verringert.

Während sich LLMs auf Sprache konzentrieren, arbeiten Modelle, die auf Computer Vision (CV) spezialisiert sind, wie Ultralytics YOLO für die Objekterkennung, anders und stehen vor anderen Herausforderungen wie der Gewährleistung der Erkennungsgenauigkeit. Der Trend zu multimodalen Modellen, die Sprache und Sehen kombinieren(wie CLIP), bedeutet jedoch, dass das Verständnis von Themen wie Halluzinationen bereichsübergreifend relevant wird. Plattformen wie Ultralytics HUB unterstützen das Training und den Einsatz verschiedener KI-Modelle und erleichtern die Entwicklung über verschiedene Modalitäten hinweg.

Werden Sie Mitglied der Ultralytics-Gemeinschaft

Beteiligen Sie sich an der Zukunft der KI. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten
Link in die Zwischenablage kopiert