Yolo Vision Shenzhen
Shenzhen
Rejoindre maintenant
Glossaire

Chaîne de vérification (CoVe)

Découvrez comment la « chaîne de vérification » (CoVe) réduit les erreurs de prédiction des grands modèles de langage (LLM). Apprenez à améliorer la précision factuelle grâce à cette technique d'ingénierie des prompts avec Ultralytics .

La chaîne de vérification (CoVe) est une technique avancée d'ingénierie des prompts conçue pour réduire les inexactitudes et les erreurs factuelles dans les résultats des grands modèles de langage (LLM) . À mesure que les systèmes d'intelligence artificielle se complexifient, leur tendance à générer avec assurance de fausses informations – un phénomène connu sous le nom d'hallucination des LLM – demeure un défi majeur. CoVe y remédie en obligeant le modèle à vérifier systématiquement ses propres réponses initiales avant de présenter une réponse finale à l'utilisateur. Ce mécanisme d'autocorrection améliore considérablement la fiabilité des applications d'IA générative dans divers secteurs.

Fonctionnement du processus de vérification

La méthodologie CoVe décompose le processus de génération en quatre étapes distinctes et séquentielles. Cette approche structurée s'inspire des méthodes de vérification des faits par l'humain et fait l'objet de recherches actives menées par les principaux organismes de recherche en IA afin d'améliorer la sécurité et la cohérence de l'IA .

  • Ébauche d'une réponse initiale : Le modèle génère une réponse de base à la requête de l'utilisateur. Cette ébauche peut contenir des affirmations non vérifiées ou fictives.
  • Questions de vérification du plan : Le modèle analyse son propre brouillon et génère une liste de questions spécifiques et ciblées conçues pour vérifier les affirmations factuelles faites dans le texte initial.
  • Exécution de vérifications indépendantes : Le modèle répond aux questions de vérification de manière indépendante, sans se référer au contexte de la version originale. Cela évite qu’il ne fasse que confirmer ses propres biais ou erreurs antérieures.
  • Générer le résultat final vérifié : à partir des faits nouvellement vérifiés, le modèle révise la version initiale, en supprimant les inexactitudes et en présentant une réponse affinée et véridique.

Différenciation de CoVe par rapport aux techniques apparentées

Bien que CoVe soit souvent comparé à la méthode de la chaîne de pensée , ces deux techniques ont des objectifs différents. La méthode de la chaîne de pensée encourage un modèle à « démontrer son raisonnement » en décomposant un raisonnement logique complexe en étapes successives pour résoudre un problème. À l'inverse, la méthode de vérification en chaîne (Chain of Verification) vise spécifiquement l'exactitude des faits en vérifiant et en corrigeant les affirmations après la production d'une ébauche. De plus, CoVe peut être associé aux pipelines de génération augmentée par la recherche (RAG) , où l'étape de vérification extrait des données de référence d'une base de données vectorielle externe plutôt que de se fier uniquement aux pondérations internes du modèle.

Applications concrètes

CoVe est particulièrement avantageux dans les domaines où l'exactitude des faits est primordiale. Grâce à l'intégration de cette boucle d'autovérification, les développeurs peuvent confier des tâches à haut risque aux systèmes d'intelligence artificielle .

  • Assistants médicaux et de soins de santé : Lorsqu’une IA résume les symptômes d’un patient ou la littérature médicale, CoVe s’assure que le système vérifie les interactions médicamenteuses, les dosages et les critères diagnostiques par rapport aux connaissances médicales établies avant de formuler des recommandations.
  • Rapports industriels automatisés : Dans les usines intelligentes, un modèle de langage peut générer un rapport de synthèse à partir des journaux d’inspection visuelle. En combinant CoVe avec des modèles de vision par ordinateur , le modèle de langage peut interroger le système de vision pour vérifier si un défaut spécifique a bien été détecté sur la chaîne de montage avant de finaliser le rapport de maintenance quotidien.

Vérification de la mise à la terre avec des modèles de vision

Pour optimiser l'étape « Exécuter » de CoVe, les développeurs peuvent interroger des modèles d'apprentissage automatique de référence afin d'obtenir des données de vérité terrain. Par exemple, en utilisant Ultralytics YOLO26 pour la détection d'objets , un modèle de vision par ordinateur peut vérifier les caractéristiques physiques d'une image. Les équipes peuvent gérer efficacement ces ensembles de données et déployer ces modèles de vision grâce à la plateforme intuitive Ultralytics .

L'exemple Python suivant montre comment utiliser la fonction ultralytics package permettant d'extraire une liste vérifiée d'objets, pouvant servir de source de référence factuelle pour un LLM exécutant une étape de chaîne de vérification.

from ultralytics import YOLO

# Load the YOLO26n model to act as a factual verification source
model = YOLO("yolo26n.pt")

# Run inference on an image to get ground-truth detections
results = model("https://ultralytics.com/images/bus.jpg")

# Extract the class names of actually detected objects for CoVe grounding
detected_objects = [model.names[int(c)] for c in results[0].boxes.cls]

# Pass this factual list to the LLM during its verification execution step
print(f"CoVe Ground Truth Facts: {detected_objects}")
# Output example: ['bus', 'person', 'person', 'person', 'person']

En intégrant les résultats déterministes de frameworks de vision haute performance comme PyTorch dans le pipeline CoVe, les développeurs peuvent réduire considérablement les erreurs de génération et créer des applications d'IA multimodales robustes et fiables.

Boostez votre énergie avec Ultralytics YOLO

Bénéficiez d'une vision IA avancée pour vos projets. Trouvez la licence adaptée à vos objectifs dès aujourd'hui.

Explorer les options de licence