Découvrez comment la « chaîne de vérification » (CoVe) réduit les erreurs de prédiction des grands modèles de langage (LLM). Apprenez à améliorer la précision factuelle grâce à cette technique d'ingénierie des prompts avec Ultralytics .
La chaîne de vérification (CoVe) est une technique avancée d'ingénierie des prompts conçue pour réduire les inexactitudes et les erreurs factuelles dans les résultats des grands modèles de langage (LLM) . À mesure que les systèmes d'intelligence artificielle se complexifient, leur tendance à générer avec assurance de fausses informations – un phénomène connu sous le nom d'hallucination des LLM – demeure un défi majeur. CoVe y remédie en obligeant le modèle à vérifier systématiquement ses propres réponses initiales avant de présenter une réponse finale à l'utilisateur. Ce mécanisme d'autocorrection améliore considérablement la fiabilité des applications d'IA générative dans divers secteurs.
La méthodologie CoVe décompose le processus de génération en quatre étapes distinctes et séquentielles. Cette approche structurée s'inspire des méthodes de vérification des faits par l'humain et fait l'objet de recherches actives menées par les principaux organismes de recherche en IA afin d'améliorer la sécurité et la cohérence de l'IA .
Bien que CoVe soit souvent comparé à la méthode de la chaîne de pensée , ces deux techniques ont des objectifs différents. La méthode de la chaîne de pensée encourage un modèle à « démontrer son raisonnement » en décomposant un raisonnement logique complexe en étapes successives pour résoudre un problème. À l'inverse, la méthode de vérification en chaîne (Chain of Verification) vise spécifiquement l'exactitude des faits en vérifiant et en corrigeant les affirmations après la production d'une ébauche. De plus, CoVe peut être associé aux pipelines de génération augmentée par la recherche (RAG) , où l'étape de vérification extrait des données de référence d'une base de données vectorielle externe plutôt que de se fier uniquement aux pondérations internes du modèle.
CoVe est particulièrement avantageux dans les domaines où l'exactitude des faits est primordiale. Grâce à l'intégration de cette boucle d'autovérification, les développeurs peuvent confier des tâches à haut risque aux systèmes d'intelligence artificielle .
Pour optimiser l'étape « Exécuter » de CoVe, les développeurs peuvent interroger des modèles d'apprentissage automatique de référence afin d'obtenir des données de vérité terrain. Par exemple, en utilisant Ultralytics YOLO26 pour la détection d'objets , un modèle de vision par ordinateur peut vérifier les caractéristiques physiques d'une image. Les équipes peuvent gérer efficacement ces ensembles de données et déployer ces modèles de vision grâce à la plateforme intuitive Ultralytics .
L'exemple Python suivant montre comment utiliser la fonction ultralytics package permettant d'extraire une liste vérifiée d'objets, pouvant servir de source de référence factuelle pour un LLM exécutant une étape de chaîne de vérification.
from ultralytics import YOLO
# Load the YOLO26n model to act as a factual verification source
model = YOLO("yolo26n.pt")
# Run inference on an image to get ground-truth detections
results = model("https://ultralytics.com/images/bus.jpg")
# Extract the class names of actually detected objects for CoVe grounding
detected_objects = [model.names[int(c)] for c in results[0].boxes.cls]
# Pass this factual list to the LLM during its verification execution step
print(f"CoVe Ground Truth Facts: {detected_objects}")
# Output example: ['bus', 'person', 'person', 'person', 'person']
En intégrant les résultats déterministes de frameworks de vision haute performance comme PyTorch dans le pipeline CoVe, les développeurs peuvent réduire considérablement les erreurs de génération et créer des applications d'IA multimodales robustes et fiables.