Yolo Vision Shenzhen
Shenzhen
Rejoindre maintenant
Glossaire

Prompting en chaîne de pensée

Améliorez le raisonnement de l'IA grâce au prompting en chaîne de pensée ! Améliorez la précision, la transparence et la conservation du contexte pour les tâches complexes à plusieurs étapes.

L'incitation à la chaîne de pensée (CoT) est une technique sophistiquée de l 'ingénierie des messages-guides, conçue pour améliorer capacités de raisonnement des des grands modèles de langage (LLM). Plutôt que de plutôt que de demander à un modèle d'IA de fournir une réponse immédiate à une requête complexe, l'invite CoT demande au modèle de décomposer le problème en une série d'étapes logiques intermédiaires. problème en une série d'étapes logiques intermédiaires. Cette méthode imite les processus humains de résolution de problèmes, Cette méthode imite les processus humains de résolution de problèmes, en permettant au modèle de "réfléchir à voix haute" avant d'arriver à une conclusion finale. En générant une séquence d'étapes de En générant une séquence d'étapes de raisonnement, le modèle peut améliorer de manière significative ses performances dans les tâches qui requièrent de l'arithmétique, du raisonnement de bon sens et de la logique symbolique. de raisonnement et de logique symbolique. Cette approche a été popularisée par les chercheurs de Google Brain, Google Brain, démontrant que des processus de pensée structurés conduisent à des résultats plus fiables et plus précis en matière d'intelligence artificielle. des résultats plus fiables et plus précis en matière d 'intelligence artificielle (IA).

Mécanismes de la chaîne de pensée

L'efficacité de la CdT réside dans sa capacité à décomposer des tâches complexes en éléments gérables. Cela permet non seulement Cela permet non seulement au modèle de conserver sa cohérence, mais aussi de rendre transparente la manière dont une réponse a été obtenue, un facteur clé de l'IA explicable (XAI). l 'IA explicable (XAI). Il existe deux façons principales de mettre en œuvre cette stratégie :

  • CoT à coup zéro: Il s'agit d'ajouter une phrase de déclenchement telle que "Réfléchissons étape par étape" à la fin d'une invite. Comme le décrivent les recherches sur les raisonneurs à point zéro, cette simple instruction active les capacités du modèle. sur les raisonneurs à point zéro, cette instruction simple active les capacités de raisonnement du modèle sans avoir besoin d'exemples spécifiques, ce qui permet de tirer parti de l'expérience de l'utilisateur. de raisonnement du modèle sans avoir besoin d'exemples spécifiques, ce qui permet de tirer parti de l'apprentissage à zéro pour gérer des tâches nouvelles. l 'apprentissage à partir de zéro pour gérer des tâches nouvelles.
  • Quelques exemples de questions: Dans ce scénario, l'invite comprend quelques exemples de questions accompagnées de leurs solutions étape par étape. solutions étape par étape. Ce scénario utilise l'apprentissage à quelques reprises, où le modèle apprend le modèle de raisonnement à partir du contexte fourni et l'applique à la nouvelle entrée. modèle de raisonnement à partir du contexte fourni et l'applique à la nouvelle entrée.

Applications concrètes

L'invite à la chaîne de pensée transforme la façon dont les développeurs créent des applications dans divers domaines, en particulier lorsque la précision et la logique sont primordiales. où la précision et la logique sont primordiales.

  1. Analyse de données complexes: Dans des domaines tels que la finance ou l'analyse de données, le CoT est utilisé pour guider les modèles à travers des calculs en plusieurs étapes. Par exemple, un analyste peut demander à une IA d'"extraire d'abord les chiffres de revenus chiffre d'affaires du premier trimestre, puis l'ajuster en fonction de l'inflation à l'aide de l'indice CPI, et enfin comparer le taux de croissance à celui de l'exercice précédent". précédent." Cette approche structurée réduit les erreurs de calcul fréquentes dans les réponses directes.
  2. Génération de code et débogage: Les développeurs utilisent CoT pour générer un code robuste pour les vision artificielle (CV) tâches. Au lieu de simplement un script, un utilisateur peut demander au modèle de décrire la logique de chargement d'un ensemble de données, de configuration de l'architecture du modèle et d'exécution de la boucle d'apprentissage. et l'exécution de la boucle d'apprentissage. Cela permet de s'assurer que les scripts générés pour des bibliothèques telles que ultralytics sont logiques et syntaxiquement corrects.

Exemple de code

Bien que CoT soit une technique basée sur le texte, elle est fréquemment utilisée pour générer du code Python correct pour les flux de travail d'apprentissage automatique. d'apprentissage automatique. L'exemple suivant montre comment structurer une chaîne d'invite dans Python afin d'obtenir une solution étape par étape pour l'utilisation de l'apprentissage automatique. pour l'utilisation de YOLO11 pour detect objets.

# Example of a Chain-of-Thought prompt structure for generating YOLO11 code
prompt = """
Task: Write a Python script to detect objects in a video stream using YOLO11.

Chain of Thought:
1. Import the YOLO class from the ultralytics package.
2. Load the pre-trained 'yolo11n.pt' model weights.
3. Define the source as '0' for the webcam or a video file path.
4. Run the predict() method with show=True to visualize results in real-time.

Now, generate the Python code based on these steps.
"""

print(f"Sending the following prompt to LLM:\n{prompt}")

Comparaison avec des concepts connexes

Il est important de distinguer l'incitation à la chaîne de pensée des autres techniques d'apprentissage automatique. techniques d'apprentissage automatique :

  • Enchaînement d'invites: Alors que le CoT s'inscrit dans un cycle unique d'invite-réponse, le chaînage d'invites consiste à diviser une tâche en une séquence d'appels API distincts, où la sortie d'une invite devient l'entrée de la suivante. d'appels API distincts, où la sortie d'une invite devient l'entrée de la suivante. CoT se concentre sur le raisonnement interne, tandis que le chaînage se concentre sur le raisonnement externe. interne, alors que le chaînage se concentre sur l'orchestration du flux de travail.
  • Génération améliorée par récupération (RAG): La RAG consiste à rechercher des données externes afin d'étayer les connaissances du modèle avant de générer une réponse. CoT peut être être combinée avec RAG (par exemple, "D'abord, récupérer le document, puis raisonner sur son contenu"), mais CoT se réfère spécifiquement à la structure de raisonnement, et non au mécanisme de récupération des données. se réfère spécifiquement à la structure de raisonnement, et non au mécanisme de récupération des données.
  • Prompt Tuning: Il s'agit d'un méthode de réglage fin efficace en fonction des paramètres (PEFT) qui optimise les messages-guides continus (vecteurs) pendant la formation. En revanche, le CoT est une stratégie discrète d'incitation en langage naturel appliquée à la fois à la formation et à l'apprentissage. discrète, en langage naturel, appliquée au moment de l'inférence sans modifier le modèle. au moment de l'inférence sans modifier les poids du modèle.

En intégrant la chaîne de pensée, les développeurs peuvent exploiter tout le potentiel de l'IA générative. l 'IA générative, en veillant à ce que les modèles ne se contentent pas de fournir des réponses, mais démontrent également la validité logique de leurs solutions. réponses, mais aussi de démontrer la validité logique de leurs solutions. Ceci est essentiel pour déployer des agents d'IA fiables dans des environnements critiques. fiables dans des environnements critiques.

Rejoindre la communauté Ultralytics

Rejoignez le futur de l'IA. Connectez-vous, collaborez et évoluez avec des innovateurs mondiaux.

Rejoindre maintenant