Scopri come Chain of Verification (CoVe) riduce le allucinazioni dei modelli di linguaggio di grandi dimensioni (LLM). Impara a migliorare l'accuratezza dei dati utilizzando questa tecnica di ingegneria dei prompt con Ultralytics .
Chain of Verification (CoVe) è una tecnica avanzata di prompt engineering progettata per ridurre le imprecisioni e gli errori fattuali negli output dei Large Language Models (LLM) . Con l'aumentare della complessità dei sistemi di intelligenza artificiale, la loro tendenza a generare con sicurezza informazioni false – un fenomeno noto come allucinazione da LLM – rimane una sfida significativa. CoVe affronta questo problema obbligando il modello a verificare sistematicamente le proprie risposte iniziali prima di presentare una risposta finale all'utente. Questo meccanismo di autocorrezione migliora significativamente l'affidabilità delle applicazioni di intelligenza artificiale generativa in diversi settori.
La metodologia CoVe suddivide il processo di generazione in quattro fasi distinte e sequenziali. Questo approccio strutturato rispecchia i flussi di lavoro di verifica dei fatti da parte degli esseri umani ed è oggetto di ricerca attiva da parte delle principali organizzazioni nel campo dell'IA per migliorare la sicurezza e l'allineamento dell'intelligenza artificiale .
Sebbene CoVe venga spesso paragonato a Chain-of-Thought Prompting , i due approcci hanno scopi diversi. Chain-of-Thought incoraggia un modello a "mostrare il proprio lavoro" scomponendo il ragionamento logico complesso in componenti passo passo per risolvere un problema. Al contrario, Chain of Verification si concentra specificamente sull'accuratezza fattuale, verificando e rivedendo le affermazioni dopo la produzione di una bozza. Inoltre, CoVe può essere abbinato a pipeline di Retrieval-Augmented Generation (RAG) , in cui la fase di verifica estrae dati di riferimento da un database vettoriale esterno anziché basarsi esclusivamente sui pesi interni del modello.
CoVe si rivela estremamente vantaggioso in ambiti in cui l'accuratezza fattuale è fondamentale. Integrando questo ciclo di autoverifica, gli sviluppatori possono affidare con maggiore fiducia i sistemi di intelligenza artificiale a compiti di maggiore importanza.
Per migliorare la fase "Esegui" di CoVe, gli sviluppatori possono interrogare modelli di machine learning autorevoli per ottenere dati di riferimento. Ad esempio, utilizzando Ultralytics YOLO26 per il rilevamento di oggetti , un modello di apprendimento basato su immagini (LLM) può verificare le affermazioni fisiche relative a un'immagine. I team possono gestire in modo efficiente questi set di dati e implementare questi modelli di visione utilizzando l'intuitiva piattaforma Ultralytics .
Il seguente esempio Python mostra come utilizzare l'opzione ultralytics Pacchetto per estrarre un elenco verificato di oggetti, che può fungere da fonte di riferimento fattuale per un LLM che esegue una fase della Catena di Verifica.
from ultralytics import YOLO
# Load the YOLO26n model to act as a factual verification source
model = YOLO("yolo26n.pt")
# Run inference on an image to get ground-truth detections
results = model("https://ultralytics.com/images/bus.jpg")
# Extract the class names of actually detected objects for CoVe grounding
detected_objects = [model.names[int(c)] for c in results[0].boxes.cls]
# Pass this factual list to the LLM during its verification execution step
print(f"CoVe Ground Truth Facts: {detected_objects}")
# Output example: ['bus', 'person', 'person', 'person', 'person']
Integrando output deterministici provenienti da framework di visione ad alte prestazioni come PyTorch nella pipeline di CoVe, gli sviluppatori possono ridurre drasticamente gli errori generativi e creare applicazioni di intelligenza artificiale multimodale robuste e affidabili.