Glossaire

Enrichissement des messages

Maîtrisez l'IA grâce à l'enrichissement rapide ! Améliorez les résultats des modèles linguistiques à grande échelle en utilisant le contexte, des instructions claires et des exemples pour des résultats précis.

L'enrichissement des invites est le processus automatisé qui consiste à ajouter par programme un contexte ou des informations pertinentes à l'invite initiale de l'utilisateur avant qu'elle ne soit envoyée à un modèle d' IA, en particulier un modèle de langage étendu (LLM). L'objectif est de transformer une requête simple ou ambiguë de l'utilisateur en une instruction détaillée, spécifique et contextuelle. Cette étape de prétraitement aide le modèle d'IA à mieux comprendre l'intention de l'utilisateur, ce qui permet d'obtenir des réponses beaucoup plus précises, personnalisées et utiles sans modifier le modèle lui-même.

Comment fonctionne l'enrichissement par l'exemple ?

L'enrichissement des messages agit comme une couche intermédiaire intelligente. Lorsqu'un utilisateur soumet une requête, un système automatisé l'intercepte. Ce système recueille ensuite des données contextuelles provenant de diverses sources, telles que les profils d'utilisateurs, l'historique des conversations, les données de session (comme le type d'appareil ou l'emplacement) ou des bases de données externes. Il injecte ensuite dynamiquement ces informations dans l'invite originale. L'invite "enrichie" qui en résulte, contenant à la fois la requête de l'utilisateur et le contexte ajouté, est finalement transmise au LLM pour traitement. Cela améliore la capacité du modèle à effectuer des tâches complexes de compréhension du langage naturel (NLU).

Applications dans le monde réel

  1. Assistance client personnalisée : Un utilisateur interagit avec un chatbot de commerce électronique et tape "Où est mon colis ?". Le système d'enrichissement des messages peut automatiquement récupérer les détails du compte de l'utilisateur et son numéro de commande le plus récent dans une base de données CRM. L'invite envoyée au modèle devient : "Le client ID 98765 demande le statut de sa dernière commande, #ABC-12345. La demande initiale de l'utilisateur : Où est mon colis ?" Cela permet à l'agent du service client piloté par l'IA de fournir une mise à jour instantanée et spécifique au lieu de demander des informations complémentaires.
  2. Recommandation de contenu plus intelligente : Un utilisateur d'un service de diffusion en continu demande : "Recommandez un film". C'est trop vague pour une bonne recommandation. Le processus d'enrichissement peut compléter cette demande avec des données telles que l'historique de visionnage de l'utilisateur, ses préférences en matière de genre et l'heure de la journée. L'invite finale pourrait ressembler à ce qui suit : "L'utilisateur a récemment apprécié les thrillers de science-fiction et les drames historiques. C'est un samedi soir. Recommandez-lui un film qui corresponde à ces critères." Le système de recommandation propose ainsi des suggestions plus pertinentes et améliore l'expérience de l'utilisateur grâce à la personnalisation.

Enrichissement du message et concepts connexes

Il est important de distinguer l'enrichissement rapide des termes similaires :

  • Prompt Engineering: Il s'agit d'une vaste discipline qui consiste à concevoir des messages-guides efficaces. L'enrichissement des messages-guides est une technique automatisée spécifique de l'ingénierie des messages-guides qui se concentre sur l'ajout d'un contexte dynamique à la saisie de l'utilisateur.
  • Génération améliorée par récupération (RAG): La RAG est un type puissant et spécifique d'enrichissement de l'invite. Il se spécialise dans la récupération d'informations factuelles à partir d'une base de connaissances externe afin d'ancrer les résultats du modèle et d'éviter les hallucinations. Si la RAG est une forme d'enrichissement, l'enrichissement peut également utiliser d'autres sources de contexte, comme les données de session de l'utilisateur, qui ne font pas partie d'une base de connaissances statique.
  • Enchaînement d'invites: Cette technique décompose une tâche en une séquence d'invites multiples et interconnectées, où la sortie d'une invite alimente la suivante. L'enrichissement, en revanche, modifie une seule invite avant qu'elle ne soit traitée. L'étape d'enrichissement d'une invite peut faire partie d'une chaîne plus large, souvent en tant qu'étape initiale. D'autres techniques, comme la chaîne de pensée (CoT), se concentrent sur l'amélioration du raisonnement au sein d'une interaction unique.
  • Prompt Tuning: Il s'agit d'une méthode d'apprentissage de modèle. En tant que technique de réglage fin efficace des paramètres (PEFT), elle adapte le comportement d'un modèle en formant un petit ensemble de nouveaux paramètres. L'enrichissement des invites est une technique d'inférence qui manipule la requête d'entrée et ne modifie pas les poids du modèle.

Bien qu'elle soit plus courante dans le domaine du traitement du langage naturel (NLP), l'idée de base est applicable à l'ensemble de l'apprentissage automatique. Dans le domaine de la vision artificielle, un concept similaire pourrait impliquer l'ajout de métadonnées (par exemple, le lieu, l'heure) à une image pour améliorer les performances d'un modèle comme Ultralytics YOLO11 sur une tâche de détection d'objets. Les plateformes MLOps comme Ultralytics HUB fournissent l'infrastructure nécessaire au déploiement de modèles robustes, où des pipelines d'entrée sophistiqués utilisant l'enrichissement et des cadres comme LangChain ou LlamaIndex peuvent être mis en œuvre.

Rejoindre la communauté Ultralytics

Rejoignez l'avenir de l'IA. Connectez-vous, collaborez et évoluez avec des innovateurs mondiaux.

S'inscrire
Lien copié dans le presse-papiers