Yolo Vision Shenzhen
Shenzhen
Rejoindre maintenant
Glossaire

Hallucination (dans les LLM)

Découvrez les causes des hallucinations dans les grands modèles linguistiques (LLM) et explorez des stratégies efficaces pour atténuer les inexactitudes dans le contenu généré par l'IA.

Dans le cadre de grands modèles de langage (LLM)une hallucination se produit lorsqu'un modèle génératif produit un contenu qui est sûr de lui et syntaxiquement fluide mais mais factuellement incorrect, absurde ou infidèle au matériau d'origine. Contrairement aux erreurs classiques de recherche dans les bases de données, les hallucinations en IA générative sont souvent plausibles, ce qui les rend difficiles à detect pour les utilisateurs sans vérification indépendante. Ce phénomène Ce phénomène découle de la conception fondamentale de ces modèles, qui donnent la priorité à l'analyse de l'information. la génération de texte basée sur la probabilité statistique plutôt que la validation de la vérité. Il est essentiel de comprendre les hallucinations pour déployer des systèmes d'IA sûrs, en particulier dans les secteurs à fort enjeu tels que la santé, la finance et les services juridiques.

Pourquoi les LLM hallucinent

La cause première de l'hallucination réside dans la Transformateur et les objectifs de formation objectifs de formation utilisés pour construire les modèles de base. Ces systèmes sont formés pour prédire la prochaine jeton dans une séquence sur la base de modèles appris à partir de vastes quantités de données de formation. Ils ne possèdent pas de concept inhérent de "fait" ou de "fiction" ; ils modélisent plutôt la probabilité que des mots apparaissent ensemble. la probabilité que des mots apparaissent ensemble.

Plusieurs facteurs contribuent à ce comportement :

  • Limitations des données : Si le corpus de formation contient des informations contradictoires, obsolètes ou incorrectes, le modèle peut reproduire ces erreurs. Cette question est souvent abordée dans les recherches concernant les perroquets stochastiquesoù les modèles imitent des formes linguistiques sans en comprendre le sens.
  • Artefacts de compression : Les LLM compriment la connaissance de l'internet en un ensemble fixe de paramètres. Au cours de cette compression, des nuances peuvent être perdues, conduisant à l'amalgame de concepts distincts.
  • Ambiguïté de l'inférence : Lorsqu'un modèle est confronté à une invite en dehors de sa distribution de connaissances, il peut par défaut générer la réponse la plus statistiquement probable plutôt que d'admettre son ignorance. de générer la réponse statistiquement la plus probable plutôt que d'admettre son ignorance, un comportement souvent appelé "confabulation". "confabulation".

Exemples concrets d'hallucinations

Les hallucinations peuvent se manifester sous diverses formes, allant d'inexactitudes subtiles à des fabrications complètes :

  • Fabrication de cas juridiques : Dans un incident largement médiatisé, un professionnel du droit a utilisé un LLM pour pour effectuer des recherches sur un cas. Le modèle a généré un dossier juridique citant plusieurs affaires judiciaires inexistantes avec des citations et des avis judiciaires inventés, ce qui a conduit à des sanctions.
  • Invention d'une bibliothèque de codage : Les développeurs qui utilisent des assistants de codage AI se voient parfois recommander des bibliothèques logicielles ou des méthodes d'API qui n'existent pas réellement. de bibliothèques logicielles ou de méthodes d'API qui n'existent pas réellement. Le modèle hallucine un nom de fonction plausible (par exemple, ultralytics.detect_everything()) sur la base des conventions de dénomination standard qu'il a observées dans ses données de formation, même si cette fonction spécifique n'a jamais été mise en œuvre. données d'apprentissage, même si cette fonction spécifique n'a jamais été mise en œuvre.

Stratégies d'atténuation

La réduction des hallucinations est l'un des principaux objectifs de l'étude. Sécurité de l'IA de l'IA. Plusieurs techniques sont actuellement employées pour ancrer les modèles dans la réalité :

  • Génération améliorée par récupération (RAG) : Cette méthode connecte le LLM à une base de connaissances externe de confiance externe fiable, telle qu'une base de données vectorielles. Au lieu de s'appuyer uniquement sur la mémoire interne, le modèle récupère les documents pertinents avant de générer une réponse. Pour en savoir plus comment RAG améliore la précision dans les applications d'entreprise.
  • Ingénierie rapide : Techniques comme L'incitation à la chaîne de pensée encouragent le modèle à expliquer son raisonnement étape par étape, ce qui permet de réduire les erreurs logiques et d'améliorer la cohérence des faits. cohérence des faits.
  • Apprentissage par renforcement à partir du feedback humain (RLHF) : Les développeurs utilisent Apprentissage par renforcement à partir du feedback humain (RLHF) pour pénaliser le modèle en cas d'hallucinations pendant la phase de mise au point, afin d'aligner ses résultats sur les préférences humaines en matière de véracité. humaines en matière de véracité.
  • Mise à la terre multimodale : Dans les tâches vision-langage, les hallucinations peuvent être réduites en vérifiant la sortie du texte par rapport à des données structurées. par rapport à des données structurées provenant de modèles de vision par ordinateur (CV) (vision par ordinateur).

La vision par ordinateur au service de l'apprentissage tout au long de la vie

Un moyen efficace d'atténuer les hallucinations dans les flux de travail multimodaux est d'utiliser un système de contrôle de la qualité de haute précision. détection d'objets pour vérifier le contenu physique d'une image avant qu'un le contenu physique d'une image avant qu'un LLM ne la décrive. En introduisant une liste vérifiée d'objets dans le contexte du LLM, vous l'empêchez d'inventer de nouvelles images. vous l'empêchez d'inventer des éléments qui n'existent pas.

L'exemple suivant montre comment utiliser Ultralytics YOLO11 pour générer une liste d'objets d'objets, qui peut ensuite servir de contrainte factuelle pour un modèle génératif.

from ultralytics import YOLO

# Load the official YOLO11 model
model = YOLO("yolo11n.pt")

# Run inference on an image to get factual data
results = model("https://ultralytics.com/images/bus.jpg")

# Extract the class names of detected objects to ground the LLM
detected_objects = [model.names[int(c)] for c in results[0].boxes.cls]

# This list prevents the LLM from hallucinating objects not present
print(f"Verified Objects: {detected_objects}")
# Output: Verified Objects: ['bus', 'person', 'person', 'person', 'person']

Hallucination et autres terminologies

Il est important de distinguer les hallucinations des autres types d'erreurs de l'IA :

  • contre la partialité : Les biais dans l'IA se réfère à des préjugés systématiques systématique dans les résultats (par exemple, les stéréotypes), tandis que l'hallucination se réfère à l'inexactitude des faits. Une déclaration peut être impartiale mais hallucinée, ou factuelle mais biaisée.
  • par rapport aux erreurs de précision : Dans les tâches de classification, une prédiction erronée (comme le fait de qualifier un chien de chat) est une erreur de précision et non une hallucination. une erreur de précision, et non une hallucination. L'hallucination est spécifique à la génératif de création de nouveaux nouveau contenu.
  • vs. surajustement : Alors que surajustement implique une mémorisation données d'apprentissage, les hallucinations se produisent souvent lorsque le modèle tente de généraliser au-delà de ses données d'apprentissage et qu 'il échoue. données d'apprentissage et échoue.

Pour plus d'informations sur l'évaluation des modèles génératifs, consultez le site web de la Commission européenne. Cadre de gestion des risques liés à l'IA du NIST offre un aperçu complet des normes de fiabilité et de sécurité. En outre, les chercheurs continuent à développer des algorithmes de vérification des faits pour detect et signaler automatiquement les contenus hallucinatoires en temps réel.

Rejoindre la communauté Ultralytics

Rejoignez le futur de l'IA. Connectez-vous, collaborez et évoluez avec des innovateurs mondiaux.

Rejoindre maintenant