Enrichissement des messages
Maîtrisez l'IA grâce à l'enrichissement rapide ! Améliorez les résultats des modèles linguistiques à grande échelle en utilisant le contexte, des instructions claires et des exemples pour des résultats précis.
L'enrichissement des invites est le processus automatisé qui consiste à ajouter par programme un contexte ou des informations pertinentes à l'invite initiale de l'utilisateur avant qu'elle ne soit envoyée à un modèle d' IA, en particulier un modèle de langage étendu (LLM). L'objectif est de transformer une requête simple ou ambiguë de l'utilisateur en une instruction détaillée, spécifique et contextuelle. Cette étape de prétraitement aide le modèle d'IA à mieux comprendre l'intention de l'utilisateur, ce qui permet d'obtenir des réponses beaucoup plus précises, personnalisées et utiles sans modifier le modèle lui-même.
Enrichissement du message et concepts connexes
Il est important de distinguer l'enrichissement rapide des termes similaires :
- Prompt Engineering: Il s'agit d'une vaste discipline qui consiste à concevoir des messages-guides efficaces. L'enrichissement des messages-guides est une technique automatisée spécifique de l'ingénierie des messages-guides qui se concentre sur l'ajout d'un contexte dynamique à la saisie de l'utilisateur.
- Génération améliorée par récupération (RAG): La RAG est un type puissant et spécifique d'enrichissement de l'invite. Il se spécialise dans la récupération d'informations factuelles à partir d'une base de connaissances externe afin d'ancrer les résultats du modèle et d'éviter les hallucinations. Si la RAG est une forme d'enrichissement, l'enrichissement peut également utiliser d'autres sources de contexte, comme les données de session de l'utilisateur, qui ne font pas partie d'une base de connaissances statique.
- Enchaînement d'invites: Cette technique décompose une tâche en une séquence d'invites multiples et interconnectées, où la sortie d'une invite alimente la suivante. L'enrichissement, en revanche, modifie une seule invite avant qu'elle ne soit traitée. L'étape d'enrichissement d'une invite peut faire partie d'une chaîne plus large, souvent en tant qu'étape initiale. D'autres techniques, comme la chaîne de pensée (CoT), se concentrent sur l'amélioration du raisonnement au sein d'une interaction unique.
- Prompt Tuning: Il s'agit d'une méthode d'apprentissage de modèle. En tant que technique de réglage fin efficace des paramètres (PEFT), elle adapte le comportement d'un modèle en formant un petit ensemble de nouveaux paramètres. L'enrichissement des invites est une technique d'inférence qui manipule la requête d'entrée et ne modifie pas les poids du modèle.
Bien qu'elle soit plus courante dans le domaine du traitement du langage naturel (NLP), l'idée de base est applicable à l'ensemble de l'apprentissage automatique. Dans le domaine de la vision artificielle, un concept similaire pourrait impliquer l'ajout de métadonnées (par exemple, le lieu, l'heure) à une image pour améliorer les performances d'un modèle comme Ultralytics YOLO11 sur une tâche de détection d'objets. Les plateformes MLOps comme Ultralytics HUB fournissent l'infrastructure nécessaire au déploiement de modèles robustes, où des pipelines d'entrée sophistiqués utilisant l'enrichissement et des cadres comme LangChain ou LlamaIndex peuvent être mis en œuvre.
Comment fonctionne l'enrichissement par l'exemple ?
L'enrichissement des messages agit comme une couche intermédiaire intelligente. Lorsqu'un utilisateur soumet une requête, un système automatisé l'intercepte. Ce système recueille ensuite des données contextuelles provenant de diverses sources, telles que les profils d'utilisateurs, l'historique des conversations, les données de session (comme le type d'appareil ou l'emplacement) ou des bases de données externes. Il injecte ensuite dynamiquement ces informations dans l'invite originale. L'invite "enrichie" qui en résulte, contenant à la fois la requête de l'utilisateur et le contexte ajouté, est finalement transmise au LLM pour traitement. Cela améliore la capacité du modèle à effectuer des tâches complexes de compréhension du langage naturel (NLU).
Applications dans le monde réel