Yolo Vision Shenzhen
Shenzhen
Rejoindre maintenant
Glossaire

Prompting en chaîne de pensée

Améliorez le raisonnement de l'IA grâce au prompting en chaîne de pensée ! Améliorez la précision, la transparence et la conservation du contexte pour les tâches complexes à plusieurs étapes.

L'amorçage en Chaîne de Pensée (CoT) est une technique avancée d'ingénierie d'invite conçue pour améliorer les capacités de raisonnement des Grands Modèles de Langue (LLM). Au lieu de demander à un modèle une réponse directe, l'amorçage CoT encourage le modèle à générer une série d'étapes intermédiaires et cohérentes qui mènent à la conclusion finale. Cette méthode imite la résolution de problèmes humaine en décomposant les questions complexes en parties plus petites et gérables, ce qui améliore considérablement les performances sur les tâches nécessitant de l'arithmétique, du bon sens et un raisonnement symbolique. L'idée de base a été introduite dans un article de recherche de Google AI, démontrant que cette approche aide les modèles à parvenir à des réponses plus précises et fiables.

Cette technique améliore non seulement la précision de la sortie du modèle, mais offre également une fenêtre sur son « processus de pensée », rendant les résultats plus interprétables et fiables. Il s'agit d'une étape cruciale vers le développement d'une IA explicable (XAI). En suivant le fil de la pensée du modèle, les développeurs peuvent mieux comprendre comment une conclusion a été atteinte et identifier les erreurs potentielles dans sa logique, ce qui est essentiel pour le débogage et l'affinage des systèmes d'IA.

Comment fonctionne l'amorçage en chaîne de pensée

Il existe deux méthodes principales pour implémenter le prompting CoT, chacune étant adaptée à différents scénarios :

  • Zero-Shot CoT : Il s'agit de l'approche la plus simple, où une simple phrase comme "Réfléchissons étape par étape" est ajoutée à la fin d'une question. Cette instruction incite le modèle à articuler son processus de raisonnement sans avoir besoin d'exemples préalables. C'est une application puissante de l'apprentissage zero-shot, permettant au modèle d'effectuer un raisonnement complexe sur des tâches qu'il n'a jamais vues auparavant.
  • CoT à faible nombre d’exemples : cette méthode consiste à fournir au modèle quelques exemples dans l’invite elle-même. Chaque exemple comprend une question, un processus de raisonnement étape par étape détaillé (la chaîne de pensée) et la réponse finale. En voyant ces exemples, le modèle apprend à suivre le modèle de raisonnement souhaité lorsqu’il rencontre une nouvelle question similaire. Cette approche, qui tire parti de l’apprentissage à faible nombre d’exemples, est souvent plus efficace que le CoT à zéro coup pour les problèmes très complexes ou spécifiques à un domaine.

Applications concrètes

L'invite CoT a des applications pratiques dans divers secteurs où une résolution de problèmes complexes est requise.

  1. Résolution de problèmes mathématiques et scientifiques : Un cas d'utilisation classique est la résolution de problèmes mathématiques en plusieurs étapes. Un LLM peut être invité à décomposer le problème, à identifier les variables, à formuler les étapes nécessaires, à effectuer les calculs et à arriver à une réponse finale, ce qui réduit considérablement les erreurs par rapport à une invite de réponse directe. Ceci est exploré en profondeur par des organisations comme DeepMind.
  2. Support client et diagnostic complexes : Un chatbot basé sur l'IA dans un rôle de support technique peut utiliser CoT pour traiter des problèmes complexes des utilisateurs. Au lieu d'une réponse générique, le bot peut raisonner sur le problème : « Tout d'abord, je vais confirmer l'appareil et la version du logiciel de l'utilisateur. Ensuite, je vérifierai s'il existe des problèmes connus liés à cette version. Ensuite, je demanderai des messages d'erreur spécifiques. Enfin, je fournirai une solution étape par étape basée sur ces informations. » Cette approche structurée conduit à un support plus utile et précis.

Comparaison avec des concepts connexes

L'invite CoT est liée à d'autres techniques de traitement du langage naturel (NLP) et d'apprentissage automatique (ML), mais s'en distingue.

  • Chaînage d'invites (Prompt Chaining) : Le chaînage d'invites divise une tâche complexe en une séquence d'invites plus simples et interconnectées, où la sortie d'une invite devient l'entrée de la suivante. Cela nécessite souvent une orchestration externe (par exemple, en utilisant des frameworks comme LangChain). En revanche, CoT vise à susciter l'ensemble du processus de raisonnement dans le cadre d'une seule interaction invite-réponse.
  • Génération Augmentée par Récupération (RAG) : La RAG est une technique dans laquelle un modèle récupère d'abord les informations pertinentes d'une base de connaissances externe avant de générer une réponse. La RAG peut être une composante d'un processus de chaîne de pensée (par exemple, une étape pourrait être « rechercher X dans la base de données »), mais CoT décrit la structure globale du raisonnement lui-même. Apprenez-en davantage sur le fonctionnement des systèmes RAG.
  • Enrichissement d'invite (Prompt Enrichment) : Cela implique d'ajouter du contexte ou des détails à l'invite initiale d'un utilisateur avant de l'envoyer à l'IA. Il améliore une seule invite, mais ne crée pas le processus de raisonnement séquentiel, étape par étape, qui définit CoT.

L'invite CoT représente une étape importante vers la construction de systèmes d'intelligence artificielle (IA) plus performants et interprétables. La compréhension et l'utilisation de telles techniques peuvent être bénéfiques lors du développement de modèles d'IA sophistiqués. Des plateformes comme Ultralytics HUB peuvent aider à gérer l'entraînement et le déploiement de divers modèles. Des techniques comme la Self-Consistency peuvent améliorer davantage CoT en échantillonnant plusieurs chemins de raisonnement et en sélectionnant la réponse la plus cohérente. À mesure que les modèles deviennent plus complexes, des LLM aux modèles de vision par ordinateur comme Ultralytics YOLO11, les principes du raisonnement structuré deviendront de plus en plus importants.

Rejoignez la communauté Ultralytics

Rejoignez le futur de l'IA. Connectez-vous, collaborez et évoluez avec des innovateurs mondiaux.

Rejoindre maintenant
Lien copié dans le presse-papiers