Glosario

Prompt Enriquecimiento

Domine la IA con el enriquecimiento rápido Mejore los resultados de Large Language Models utilizando contexto, instrucciones claras y ejemplos para obtener resultados precisos.

El enriquecimiento de instrucciones es el proceso automatizado de añadir mediante programación información o contexto relevante a la instrucción inicial de un usuario antes de enviarla a un modelo de IA, especialmente a un modelo de lenguaje amplio (LLM). El objetivo es transformar una consulta simple o ambigua del usuario en una instrucción detallada, específica y consciente del contexto. Este paso de preprocesamiento ayuda al modelo de IA a comprender mejor la intención del usuario, lo que da lugar a respuestas mucho más precisas, personalizadas y útiles sin alterar el propio modelo.

Cómo funciona el enriquecimiento rápido

El enriquecimiento de consultas actúa como una capa inteligente de middleware. Cuando un usuario envía una consulta, un sistema automatizado la intercepta. A continuación, este sistema recopila datos contextuales de diversas fuentes, como perfiles de usuario, historial de conversaciones, datos de sesión (como tipo de dispositivo o ubicación) o bases de datos externas. A continuación, inyecta dinámicamente esta información en el mensaje original. El mensaje "enriquecido" resultante, que ahora contiene tanto la consulta del usuario como el contexto añadido, se transmite finalmente al LLM para su procesamiento. Esto mejora la capacidad del modelo para realizar tareas complejas de comprensión del lenguaje natural (NLU ).

Aplicaciones reales

  1. Atención al cliente personalizada: Un usuario interactúa con un chatbot de comercio electrónico y escribe: "¿Dónde está mi paquete?". El sistema de enriquecimiento de consultas puede obtener automáticamente los datos de la cuenta del usuario y su número de pedido más reciente de una base de datos CRM. El mensaje enviado al modelo se convierte en: "El cliente ID 98765 pregunta por el estado de su pedido más reciente, #ABC-12345. Consulta original del usuario: ¿Dónde está mi paquete? De este modo, el agente de atención al cliente basado en IA puede proporcionar una actualización instantánea y específica en lugar de pedir información aclaratoria.
  2. Recomendación de contenidos más inteligente: Un usuario de un servicio de streaming dice: "Recomiéndame una película". Esto es demasiado vago para una buena recomendación. El proceso de enriquecimiento puede aumentar esta pregunta con datos como el historial de visionado del usuario, sus preferencias de género y la hora del día. La recomendación final podría ser la siguiente "El usuario ha disfrutado recientemente con thrillers de ciencia ficción y dramas históricos. Es sábado por la noche. Recomiéndele una película que se ajuste a estos criterios". De este modo, el sistema de recomendación ofrece sugerencias más pertinentes y mejora la experiencia del usuario gracias a la personalización.

Prompt Enrichment vs. Conceptos relacionados

Es importante distinguir el enriquecimiento rápido de términos similares:

  • Ingeniería Prompt: Se trata de una disciplina amplia que consiste en diseñar instrucciones eficaces. El enriquecimiento de avisos es una técnica específica y automatizada dentro de la ingeniería de avisos que se centra en añadir un contexto dinámico a la entrada del usuario.
  • Generación mejorada por recuperación (RAG): La RAG es un tipo de enriquecimiento rápido potente y específico. Se especializa en recuperar información objetiva de una base de conocimientos externa para fundamentar la salida del modelo y evitar alucinaciones. Aunque la RAG es una forma de enriquecimiento, también puede utilizar otras fuentes de contexto, como los datos de la sesión del usuario, que no forman parte de una base de conocimientos estática.
  • Encadenamiento: Esta técnica divide una tarea en una secuencia de múltiples instrucciones interconectadas, en la que la salida de una instrucción alimenta a la siguiente. El enriquecimiento, por el contrario, modifica una sola solicitud antes de procesarla. Un paso de enriquecimiento puede formar parte de una cadena mayor, a menudo como paso inicial. Otras técnicas, como las instrucciones de cadena de pensamiento (CoT ), se centran en mejorar el razonamiento dentro de una única interacción.
  • Prompt Tuning: Se trata de un método de entrenamiento de modelos. Como técnica de ajuste fino eficiente de parámetros (PEFT ), adapta el comportamiento de un modelo entrenando un pequeño conjunto de nuevos parámetros. Se trata de una técnica de inferencia que manipula la consulta de entrada sin modificar las ponderaciones del modelo.

Aunque es más común en el Procesamiento del Lenguaje Natural (PLN), la idea central es aplicable a todo el aprendizaje automático. En visión por ordenador, un concepto similar podría consistir en añadir metadatos (por ejemplo, ubicación, hora) a una imagen para mejorar el rendimiento de un modelo como Ultralytics YOLO11 en una tarea de detección de objetos. Las plataformas MLOps como Ultralytics HUB proporcionan la infraestructura necesaria para el despliegue de modelos robustos, donde se pueden implementar sofisticados pipelines de entrada que utilizan enriquecimiento y marcos como LangChain o LlamaIndex.

Únase a la comunidad Ultralytics

Únase al futuro de la IA. Conecta, colabora y crece con innovadores de todo el mundo.

Únete ahora
Enlace copiado en el portapapeles