Glossaire

L'incitation à la chaîne de pensée

Améliorez le raisonnement de l'IA grâce à l'invite de la chaîne de pensée ! Améliorez la précision, la transparence et la mémorisation du contexte pour les tâches complexes à plusieurs étapes.

La chaîne de pensée (CoT) est une technique d'ingénierie avancée conçue pour améliorer les capacités de raisonnement des grands modèles de langage (LLM). Au lieu de demander à un modèle une réponse directe, l'invite CoT encourage le modèle à générer une série d'étapes intermédiaires et cohérentes qui mènent à la conclusion finale. Cette méthode imite la résolution de problèmes humains en décomposant les questions complexes en parties plus petites et plus faciles à gérer, ce qui améliore considérablement les performances dans les tâches nécessitant des calculs arithmétiques, du bon sens et un raisonnement symbolique. L'idée de base a été présentée dans un document de recherche de Google AI, démontrant que cette approche aide les modèles à obtenir des réponses plus précises et plus fiables.

Cette technique permet non seulement d'améliorer la précision des résultats du modèle, mais aussi d'ouvrir une fenêtre sur son "processus de pensée", ce qui rend les résultats plus faciles à interpréter et plus fiables. Il s'agit d'une étape cruciale vers le développement d'une IA plus explicable (XAI). En suivant la chaîne de pensée du modèle, les développeurs peuvent mieux comprendre comment une conclusion a été tirée et identifier les erreurs potentielles dans sa logique, ce qui est essentiel pour déboguer et affiner les systèmes d'IA.

Comment fonctionne l'incitation à la chaîne de pensée

Il existe deux méthodes principales pour mettre en œuvre les messages-guides du CoT, chacune étant adaptée à des scénarios différents :

  • CoT à coup zéro : Il s'agit de l'approche la plus simple, qui consiste à ajouter à la fin d'une question une simple phrase telle que "Réfléchissons étape par étape". Cette instruction incite le modèle à articuler son processus de raisonnement sans avoir besoin d'exemples préalables. Il s'agit d'une application puissante de l'apprentissage à partir de zéro, qui permet au modèle d'effectuer un raisonnement complexe sur des tâches qu'il n'a jamais vues auparavant.
  • CoT à quelques reprises : Cette méthode consiste à fournir au modèle quelques exemples dans le cadre de l'exercice lui-même. Chaque exemple comprend une question, un processus de raisonnement détaillé étape par étape (la chaîne de pensée) et la réponse finale. En voyant ces exemples, le modèle apprend à suivre le modèle de raisonnement souhaité lorsqu'il est confronté à une nouvelle question similaire. Cette approche, qui s'appuie sur l'apprentissage à quelques reprises, est souvent plus efficace que le CoT à zéro reprise pour les problèmes très complexes ou spécifiques à un domaine.

Applications dans le monde réel

L'incitation CoT a des applications pratiques dans divers secteurs où la résolution de problèmes complexes est nécessaire.

  1. Résolution de problèmes mathématiques et scientifiques : Un cas d'utilisation classique est la résolution de problèmes mathématiques à plusieurs étapes. Un LLM peut être invité à décomposer le problème, à identifier les variables, à formuler les étapes nécessaires, à effectuer des calculs et à parvenir à une réponse finale, ce qui réduit considérablement le nombre d'erreurs par rapport à une réponse directe. Cette question est étudiée en profondeur par des organisations telles que DeepMind.
  2. Assistance à la clientèle et diagnostic complexes : Un chatbot alimenté par l'IA dans un rôle d'assistance technique peut utiliser le CoT pour traiter des problèmes d'utilisateurs complexes. Au lieu d'une réponse générique, le bot peut raisonner à travers le problème : "Tout d'abord, je vais confirmer la version de l'appareil et du logiciel de l'utilisateur. Ensuite, je vérifie les problèmes connus liés à cette version. Ensuite, je demanderai des messages d'erreur spécifiques. Enfin, je fournirai une solution étape par étape sur la base de ces informations". Cette approche structurée permet d'obtenir une assistance plus utile et plus précise.

Comparaison avec des concepts apparentés

L'invite CoT est liée à d'autres techniques de traitement du langage naturel (NLP) et d'apprentissage automatique (ML), mais elle en est distincte.

  • Enchaînement d'invites: Le chaînage d'invites décompose une tâche complexe en une séquence d'invites plus simples et interconnectées, où la sortie d'une invite devient l'entrée de la suivante. Cela nécessite souvent une orchestration externe (par exemple, en utilisant des cadres comme LangChain). En revanche, CoT vise à obtenir l'ensemble du processus de raisonnement dans le cadre d'une interaction unique entre l'invite et la réponse.
  • Génération améliorée par récupération (RAG): La RAG est une technique dans laquelle un modèle récupère d'abord les informations pertinentes d'une base de connaissances externe avant de générer une réponse. La RAG peut être un composant d'un processus de chaîne de pensée (par exemple, une étape peut être "rechercher X dans la base de données"), mais la CdT décrit la structure globale du raisonnement lui-même. En savoir plus sur le fonctionnement des systèmes RAG.
  • Enrichissement de l'invite: Il s'agit d'ajouter un contexte ou des détails au message initial de l'utilisateur avant de l'envoyer à l'IA. Il s'agit d'un enrichissement d'une seule invite, mais qui ne crée pas le processus de raisonnement séquentiel, étape par étape, qui définit le CoT.

L'incitation par le CoT représente une étape importante dans la construction de systèmes d'intelligence artificielle (IA) plus performants et plus faciles à interpréter. La compréhension et l'utilisation de ces techniques peuvent être bénéfiques pour le développement de modèles d'IA sophistiqués. Des plateformes comme Ultralytics HUB peuvent aider à gérer la formation et le déploiement de divers modèles. Des techniques telles que l'autoconsistance peuvent encore améliorer la confiance en soi en échantillonnant plusieurs voies de raisonnement et en sélectionnant la réponse la plus cohérente. À mesure que les modèles deviennent plus complexes, des LLM aux modèles de vision par ordinateur comme Ultralytics YOLO11, les principes du raisonnement structuré deviendront de plus en plus importants.

Rejoindre la communauté Ultralytics

Rejoignez l'avenir de l'IA. Connectez-vous, collaborez et évoluez avec des innovateurs mondiaux.

S'inscrire
Lien copié dans le presse-papiers