Glossaire

Chaînage rapide

Découvre le chaînage d'invites : une technique d'IA étape par étape qui améliore la précision, le contrôle et la précision des tâches complexes avec les grands modèles de langage.

Entraîne les modèles YOLO simplement
avec Ultralytics HUB

En savoir plus

Le chaînage d'invites est une technique utilisée en intelligence artificielle (IA) pour gérer des tâches complexes en les décomposant en une séquence d'invites plus simples et interconnectées. Au lieu d'utiliser une seule invite, potentiellement lourde, pour atteindre un objectif, le chaînage d'invites consiste à alimenter la sortie de la réponse d'un modèle d'IA (souvent un Grand Modèle de Langage ou LLM) en tant qu'entrée pour l'invite suivante dans la séquence. Cette approche modulaire permet un meilleur contrôle, une plus grande précision et la possibilité de gérer des raisonnements ou des flux de travail plus sophistiqués, ce qui rend les tâches complexes de l'IA plus faciles à gérer.

Comment fonctionne le chaînage d'invites

L'idée centrale qui sous-tend l'enchaînement d'invites est la décomposition des tâches. Un problème complexe, qu'une IA pourrait avoir du mal à résoudre avec précision en une seule étape, est divisé en sous-tâches plus petites et plus faciles à gérer. Chaque sous-tâche est traitée par une invite spécifique dans la chaîne. L'IA traite la première invite, génère un résultat, et ce résultat (ou une version traitée de celui-ci) devient une partie de l'entrée de la deuxième invite, et ainsi de suite. Ce processus étape par étape guide l'IA tout au long de la tâche, en veillant à ce que chaque étape s'appuie logiquement sur la précédente. Cette méthode contraste avec la tentative de résoudre l'ensemble du problème à l'aide d'une seule invite, souvent complexe et moins fiable. Des frameworks comme LangChain sont couramment utilisés pour mettre en œuvre de telles chaînes, ce qui simplifie l'orchestration de ces processus à plusieurs étapes. Le flux d'informations entre les invites est la clé du succès de la chaîne.

Avantages et applications

L'enchaînement rapide offre plusieurs avantages pour le développement de systèmes d'IA sophistiqués :

  • Précision et fiabilité accrues : La décomposition des tâches réduit la complexité à chaque étape, ce qui permet d'obtenir des résultats intermédiaires et finaux plus précis. Ce raffinement étape par étape minimise les risques d'erreurs ou d'hallucinations de l'IA.
  • Contrôle et débogage améliorés : Chaque étape de la chaîne peut être contrôlée, évaluée et déboguée individuellement, ce qui facilite la localisation et la résolution des problèmes par rapport au dépannage d'une seule invite monolithique. Cela s'aligne sur les meilleures pratiques de MLOps.
  • Gestion de la complexité : Permet à l'IA de s'attaquer à des tâches nécessitant plusieurs étapes de raisonnement, de recherche d'informations ou de transformation qui seraient trop complexes pour une seule invite. Cet aspect est crucial pour la construction d'agents d'IA avancés.
  • Modularité et réutilisation : Les invites individuelles ou les sous-chaînes peuvent potentiellement être réutilisées dans différents flux de travail, ce qui favorise l'efficacité du développement. Cette modularité est un principe fondamental du génie logiciel.

Exemples concrets :

  1. Automatisation de l'assistance à la clientèle : A chatbot utilise le chaînage d'invites pour traiter la demande d'un utilisateur.
    • Invitation 1 : Analyse la demande de l'utilisateur pour identifier l'intention et les entités clés (par exemple, le nom du produit, le type de problème).
    • Invitation 2 : Utilise les entités extraites pour rechercher dans une base de connaissances des articles de dépannage ou des FAQ pertinents.
    • Invitation 3 : Résume les informations trouvées en fonction du problème spécifique de l'utilisateur.
    • Invitation 4 : Génère une réponse claire et empathique à l'utilisateur en intégrant le résumé.
  2. Intégrer la vision et le langage dans les rapports : Générer un rapport descriptif à partir d'une image capturée par un système de sécurité.

Enchaînement d'invites et concepts connexes

Il est utile de distinguer l'enchaînement d'invites des techniques similaires :

  • Ingénierie des messages-guides: Il s'agit de la pratique générale qui consiste à concevoir des messages-guides efficaces pour les modèles d'IA. Le chaînage de messages-guides est une technique spécifique de l'ingénierie des messages-guides, qui se concentre sur la structuration séquentielle de plusieurs messages-guides.
  • L'incitation à la chaîne de pensée (CoT) : Le CoT vise à améliorer la capacité de raisonnement d'un LLM dans le cadre d'une seule invite en lui demandant de "penser étape par étape". L'enchaînement d'invites, à l'inverse, décompose la tâche en plusieurs étapes distinctes, impliquant potentiellement différents modèles ou outils à chaque étape.
  • Génération améliorée par récupération (RAG): La RAG est une technique dans laquelle un modèle d'IA récupère des informations pertinentes à partir d'une source de connaissances externe avant de générer une réponse. La RAG est souvent utilisée comme une étape spécifique au sein d' une chaîne de réponse plus large (par exemple, la recherche dans la base de connaissances dans l'exemple de l'assistance à la clientèle). En savoir plus sur les systèmes RAG.
  • Enrichissement de l'invite: Il s'agit d'ajouter automatiquement du contexte ou des détails à l'invite initiale d'un utilisateur avant qu' elle ne soit envoyée à l'IA. Bien qu'il améliore une seule invite, il n'implique pas le traitement séquentiel de plusieurs invites interconnectées comme le fait le chaînage.
  • Réglage des messages-guides: Une méthode de réglage fin efficace des paramètres (PEFT ) qui implique l'apprentissage de "messages-guides doux" spécifiques(embeddings) plutôt que l'élaboration de messages-guides textuels. Il s'agit d'une technique de formation de modèle, distincte de la structure d'exécution du chaînage d'invites.

L'enchaînement des invites est une méthode puissante pour structurer les interactions avec des modèles d'IA avancés comme les LLM et même les intégrer à d'autres systèmes d'IA comme ceux utilisés pour la classification d'images ou la segmentation d'instances. Il rend les tâches complexes plus accessibles et améliore la fiabilité des résultats dans diverses applications d'apprentissage automatique, de l'analyse de données de base aux systèmes d'IA multimodaux sophistiqués. Des plateformes comme Ultralytics HUB facilitent la formation et le déploiement de modèles qui pourraient constituer des composants de ces chaînes.

Tout lire