Yolo Vision Shenzhen
Shenzhen
Rejoindre maintenant
Glossaire

Enrichissement des invites

Maîtrisez l'IA grâce à l'enrichissement des invites ! Améliorez les sorties des grands modèles linguistiques en utilisant le contexte, des instructions claires et des exemples pour des résultats précis.

L'enrichissement des invites est le processus automatisé d'ajout programmatique de contexte ou d'informations pertinentes à l'invite initiale d'un utilisateur avant qu'elle ne soit envoyée à un modèle d'IA, en particulier un grand modèle linguistique (LLM). L'objectif est de transformer une requête utilisateur simple ou ambiguë en une instruction détaillée, spécifique et sensible au contexte. Cette étape de prétraitement aide le modèle d'IA à mieux comprendre l'intention de l'utilisateur, ce qui conduit à des réponses significativement plus précises, personnalisées et utiles sans modifier le modèle lui-même.

Comment fonctionne l’enrichissement des invites

L'enrichissement des invites agit comme une couche intermédiaire intelligente. Lorsqu'un utilisateur soumet une requête, un système automatisé l'intercepte. Ce système recueille ensuite des données contextuelles provenant de diverses sources, telles que les profils d'utilisateur, l'historique des conversations, les données de session (comme le type d'appareil ou l'emplacement) ou les bases de données externes. Il injecte ensuite dynamiquement ces informations dans l'invite originale. L'invite "enrichie" résultante, contenant à la fois la requête de l'utilisateur et le contexte ajouté, est finalement transmise au LLM pour traitement. Cela améliore la capacité du modèle à effectuer des tâches complexes de compréhension du langage naturel (NLU).

Applications concrètes

  1. Support client personnalisé : Un utilisateur interagit avec un chatbot de commerce électronique et tape : « Où est mon colis ? ». Le système d'enrichissement de la requête peut automatiquement extraire les détails du compte de l'utilisateur et son numéro de commande le plus récent à partir d'une base de données CRM. La requête envoyée au modèle devient : « Le client ID 98765 se renseigne sur le statut de sa commande la plus récente, #ABC-12345. Requête originale de l'utilisateur : 'Où est mon colis ?' » Cela permet à l'agent de service client basé sur l'IA de fournir une mise à jour instantanée et spécifique au lieu de demander des informations complémentaires.
  2. Recommandation de contenu plus intelligente : Un utilisateur d'un service de streaming dit : « Recommandez un film. » C'est trop vague pour une bonne recommandation. Le processus d'enrichissement peut augmenter cette invite avec des données telles que l'historique de visionnage de l'utilisateur, ses préférences de genre déclarées et l'heure de la journée. L'invite finale pourrait ressembler à ceci : « L'utilisateur a récemment apprécié les thrillers de science-fiction et les drames historiques. C'est un samedi soir. Recommandez un film qui correspond à ces critères. » Cela conduit à une suggestion plus pertinente du système de recommandation et améliore l'expérience utilisateur grâce à la personnalisation.

Enrichissement des invites : comparaison avec les concepts connexes

Il est important de distinguer l'enrichissement des prompts des termes similaires :

  • Ingénierie de prompts : Il s'agit de la discipline générale de la conception de prompts efficaces. L'enrichissement de prompt est une technique spécifique et automatisée au sein de l'ingénierie de prompt qui se concentre sur l'ajout de contexte dynamique à l'entrée d'un utilisateur.
  • Génération Augmentée par Récupération (RAG) : La RAG est un type puissant et spécifique d'enrichissement de prompt. Elle est spécialisée dans la récupération d'informations factuelles à partir d'une base de connaissances externe afin d'étayer la sortie du modèle et d'empêcher les hallucinations. Bien que la RAG soit une forme d'enrichissement, l'enrichissement peut également utiliser d'autres sources de contexte, telles que les données de session utilisateur, qui ne font pas partie d'une base de connaissances statique.
  • Chaînage de prompts : Cette technique divise une tâche en une séquence de prompts multiples et interconnectés, où la sortie d'un prompt alimente le suivant. L'enrichissement, en revanche, modifie un prompt unique avant qu'il ne soit traité. Une étape d'enrichissement de prompt peut faire partie d'une chaîne plus large, souvent comme étape initiale. D'autres techniques comme le Prompting Chain-of-Thought (CoT) se concentrent sur l'amélioration du raisonnement au sein d'une seule interaction.
  • Réglage de prompt : Il s'agit d'une méthode d'entraînement de modèle. En tant que technique de fine-tuning efficace en termes de paramètres (PEFT), elle adapte le comportement d'un modèle en entraînant un petit ensemble de nouveaux paramètres. L'enrichissement de prompt est une technique de temps d'inférence qui manipule la requête d'entrée et ne modifie pas les poids du modèle.

Bien que plus courant dans le traitement du langage naturel (NLP), l'idée de base est applicable à l'apprentissage automatique. En vision par ordinateur, un concept similaire pourrait impliquer l'ajout de métadonnées (par exemple, lieu, heure) à une image pour améliorer les performances d'un modèle comme Ultralytics YOLO11 sur une tâche de détection d'objets. Les plateformes MLOps comme Ultralytics HUB fournissent l'infrastructure nécessaire pour un déploiement de modèles robuste, où des pipelines d'entrée sophistiqués utilisant l'enrichissement et des frameworks comme LangChain ou LlamaIndex peuvent être implémentés.

Rejoignez la communauté Ultralytics

Rejoignez le futur de l'IA. Connectez-vous, collaborez et évoluez avec des innovateurs mondiaux.

Rejoindre maintenant
Lien copié dans le presse-papiers