Yolo Vision Shenzhen
Shenzhen
Iscriviti ora
Glossario

Catena di verifica (CoVe)

Scopri come Chain of Verification (CoVe) riduce le allucinazioni dei modelli di linguaggio di grandi dimensioni (LLM). Impara a migliorare l'accuratezza dei dati utilizzando questa tecnica di ingegneria dei prompt con Ultralytics .

Chain of Verification (CoVe) è una tecnica avanzata di prompt engineering progettata per ridurre le imprecisioni e gli errori fattuali negli output dei Large Language Models (LLM) . Con l'aumentare della complessità dei sistemi di intelligenza artificiale, la loro tendenza a generare con sicurezza informazioni false – un fenomeno noto come allucinazione da LLM – rimane una sfida significativa. CoVe affronta questo problema obbligando il modello a verificare sistematicamente le proprie risposte iniziali prima di presentare una risposta finale all'utente. Questo meccanismo di autocorrezione migliora significativamente l'affidabilità delle applicazioni di intelligenza artificiale generativa in diversi settori.

Come funziona il processo di verifica

La metodologia CoVe suddivide il processo di generazione in quattro fasi distinte e sequenziali. Questo approccio strutturato rispecchia i flussi di lavoro di verifica dei fatti da parte degli esseri umani ed è oggetto di ricerca attiva da parte delle principali organizzazioni nel campo dell'IA per migliorare la sicurezza e l'allineamento dell'intelligenza artificiale .

  • Bozza di risposta iniziale : il modello genera una risposta di base alla domanda dell'utente. Questa bozza potrebbe contenere affermazioni non verificate o deliranti.
  • Domande di verifica del piano : il modello analizza la propria bozza e genera un elenco di domande specifiche e mirate, progettate per verificare le affermazioni fattuali contenute nel testo iniziale.
  • Esecuzione di verifiche indipendenti : il modello risponde alle domande di verifica in modo indipendente, senza fare affidamento sul contesto della bozza originale. Ciò impedisce al modello di confermare semplicemente i propri pregiudizi o errori precedenti.
  • Generazione dell'output finale verificato : utilizzando i dati appena verificati, il modello rivede la bozza iniziale, eliminando le inesattezze e presentando una risposta più precisa e veritiera.

Differenze tra CoVe e tecniche simili

Sebbene CoVe venga spesso paragonato a Chain-of-Thought Prompting , i due approcci hanno scopi diversi. Chain-of-Thought incoraggia un modello a "mostrare il proprio lavoro" scomponendo il ragionamento logico complesso in componenti passo passo per risolvere un problema. Al contrario, Chain of Verification si concentra specificamente sull'accuratezza fattuale, verificando e rivedendo le affermazioni dopo la produzione di una bozza. Inoltre, CoVe può essere abbinato a pipeline di Retrieval-Augmented Generation (RAG) , in cui la fase di verifica estrae dati di riferimento da un database vettoriale esterno anziché basarsi esclusivamente sui pesi interni del modello.

Applicazioni nel mondo reale

CoVe si rivela estremamente vantaggioso in ambiti in cui l'accuratezza fattuale è fondamentale. Integrando questo ciclo di autoverifica, gli sviluppatori possono affidare con maggiore fiducia i sistemi di intelligenza artificiale a compiti di maggiore importanza.

  • Assistenti medici e sanitari : quando un'IA riassume i sintomi del paziente o la letteratura medica, CoVe garantisce che il sistema verifichi le interazioni farmacologiche, i dosaggi e i criteri diagnostici confrontandoli con le conoscenze mediche consolidate prima di fornire raccomandazioni.
  • Reportistica industriale automatizzata : nelle fabbriche intelligenti, un modello linguistico (LLM) potrebbe generare un report riassuntivo basato sui registri di ispezione visiva. Combinando CoVe con modelli di visione artificiale , il modello linguistico può interrogare il sistema di visione per verificare se un difetto specifico è stato effettivamente rilevato sulla linea di assemblaggio prima di finalizzare il report di manutenzione giornaliero.

Verifica della messa a terra con modelli di visione

Per migliorare la fase "Esegui" di CoVe, gli sviluppatori possono interrogare modelli di machine learning autorevoli per ottenere dati di riferimento. Ad esempio, utilizzando Ultralytics YOLO26 per il rilevamento di oggetti , un modello di apprendimento basato su immagini (LLM) può verificare le affermazioni fisiche relative a un'immagine. I team possono gestire in modo efficiente questi set di dati e implementare questi modelli di visione utilizzando l'intuitiva piattaforma Ultralytics .

Il seguente esempio Python mostra come utilizzare l'opzione ultralytics Pacchetto per estrarre un elenco verificato di oggetti, che può fungere da fonte di riferimento fattuale per un LLM che esegue una fase della Catena di Verifica.

from ultralytics import YOLO

# Load the YOLO26n model to act as a factual verification source
model = YOLO("yolo26n.pt")

# Run inference on an image to get ground-truth detections
results = model("https://ultralytics.com/images/bus.jpg")

# Extract the class names of actually detected objects for CoVe grounding
detected_objects = [model.names[int(c)] for c in results[0].boxes.cls]

# Pass this factual list to the LLM during its verification execution step
print(f"CoVe Ground Truth Facts: {detected_objects}")
# Output example: ['bus', 'person', 'person', 'person', 'person']

Integrando output deterministici provenienti da framework di visione ad alte prestazioni come PyTorch nella pipeline di CoVe, gli sviluppatori possono ridurre drasticamente gli errori generativi e creare applicazioni di intelligenza artificiale multimodale robuste e affidabili.

Potenziamento con Ultralytics YOLO

Ottieni una visione AI avanzata per i tuoi progetti. Trova oggi stesso la licenza giusta per i tuoi obiettivi.

Esplora le opzioni di licenza