Scopri le cause delle allucinazioni nei modelli linguistici di grandi dimensioni (LLM) ed esplora strategie efficaci per mitigare le imprecisioni nei contenuti generati dall'IA.
Nel contesto di modelli linguistici di grandi dimensioni (LLM)un'allucinazione si verifica quando un modello generativo produce un contenuto sicuro di sé e sintatticamente fluente ma ma di fatto scorretto, insensato o non fedele al materiale di partenza. A differenza degli errori standard di recupero dei database, le allucinazioni nell'IA IA generativa sono spesso plausibili, il che rende difficile per gli utenti detect senza una verifica indipendente. Questo fenomeno Questo fenomeno deriva dalla progettazione fondamentale di questi modelli, che privilegiano generazione del testo basato sulla probabilità statistica probabilità statistica piuttosto che sulla convalida della verità. La comprensione delle allucinazioni è fondamentale per l'impiego di sistemi di IA sicuri, in particolare in settori ad alto rischio come la sanità, la finanza e i servizi legali. sicure, soprattutto in settori ad alto rischio come la sanità, la finanza e i servizi legali.
La causa primaria dell'allucinazione risiede nella Trasformatore Transformer e gli obiettivi formativi obiettivi di formazione utilizzati per costruire i modelli di base. Questi sistemi sono addestrati a prevedere il prossimo token in una sequenza basata su modelli appresi da vaste quantità di dati di formazione. Non possiedono un concetto intrinseco di "fatto" o di "finzione"; piuttosto, modellano la probabilità che le parole appaiano insieme.
Diversi fattori contribuiscono a questo comportamento:
Le allucinazioni possono manifestarsi in varie forme, da sottili imprecisioni a vere e proprie invenzioni:
ultralytics.detect_everything()) sulla base di convenzioni di denominazione standard che ha visto nei suoi
anche se quella specifica funzione non è mai stata implementata.
La riduzione delle allucinazioni è uno dei principali obiettivi di sicurezza dell'intelligenza artificiale della ricerca sulla sicurezza dell'intelligenza artificiale. Diverse tecniche sono attualmente impiegate per radicare i modelli nella realtà:
Un modo efficace per attenuare le allucinazioni nei flussi di lavoro multimodali è quello di utilizzare un sistema ad alta precisione. rilevamento degli oggetti per verificare i contenuti fisici di un'immagine il contenuto fisico di un'immagine prima che un LLM la descriva. Alimentando un elenco di oggetti verificati nel contesto dell'LLM, si impedisce a quest'ultimo di inventare LLM, gli si impedisce di inventare elementi che non ci sono.
L'esempio seguente mostra come utilizzare Ultralytics YOLO11 per generare un un elenco di oggetti veritieri, che può servire come vincolo fattuale per un modello generativo.
from ultralytics import YOLO
# Load the official YOLO11 model
model = YOLO("yolo11n.pt")
# Run inference on an image to get factual data
results = model("https://ultralytics.com/images/bus.jpg")
# Extract the class names of detected objects to ground the LLM
detected_objects = [model.names[int(c)] for c in results[0].boxes.cls]
# This list prevents the LLM from hallucinating objects not present
print(f"Verified Objects: {detected_objects}")
# Output: Verified Objects: ['bus', 'person', 'person', 'person', 'person']
È importante distinguere le allucinazioni da altri tipi di errori di IA:
Per ulteriori approfondimenti sulla valutazione dei modelli generativi, esplorare il sito web Quadro di gestione del rischio dell'intelligenza artificiale del NIST offre una panoramica completa degli standard di affidabilità e sicurezza. Inoltre, i ricercatori continuano a sviluppare algoritmi di verifica dei fatti per detect e segnalare automaticamente i contenuti allucinatori in tempo reale.