¡Sintonice YOLO Vision 2025!
25 de septiembre de 2025
10:00 — 18:00 BST
Evento híbrido
Yolo Vision 2024
Glosario

Generación Aumentada de Recuperación (RAG)

Descubra cómo la Generación Aumentada por Recuperación (RAG) mejora los modelos de IA integrando datos externos fiables y en tiempo real para obtener respuestas precisas y actualizadas.

La Generación Aumentada por Recuperación (RAG) es un framework de IA avanzado diseñado para mejorar la calidad, la precisión y la relevancia de las respuestas generadas por Modelos de Lenguaje Grandes (LLM). Funciona conectando un modelo generativo a una base de conocimiento externa y actualizada. Esto permite al modelo "recuperar" información relevante antes de generar una respuesta, basando efectivamente su salida en hechos verificables y reduciendo la probabilidad de alucinaciones o respuestas obsoletas. RAG hace que los LLM sean más confiables para tareas intensivas en conocimiento al darles acceso a información especializada o propietaria en la que no fueron entrenados.

Cómo funciona la generación aumentada por recuperación

El proceso RAG se puede dividir en dos etapas principales: recuperación y generación. Este enfoque de doble etapa combina las fortalezas de los sistemas de recuperación de información y los modelos generativos.

  1. Recuperación: Cuando un usuario proporciona una instrucción o hace una pregunta, el sistema RAG primero utiliza la instrucción para buscar información relevante en una fuente de conocimiento. Esta fuente es típicamente una base de datos vectorial que contiene embeddings de documentos, artículos u otros datos. El componente de recuperación identifica y extrae los fragmentos de texto o datos más relevantes basándose en la consulta del usuario. Un paso opcional pero potente es utilizar un reranker para refinar estos resultados recuperados, asegurando que sólo se transmita la información contextualmente más importante.
  2. Generación Aumentada: La información recuperada se combina entonces con la solicitud original del usuario. Esta nueva solicitud enriquecida se introduce en el modelo de IA generativa (el LLM). El modelo utiliza este contexto añadido para formular una respuesta completa, precisa y relevante. Frameworks como LangChain y LlamaIndex se utilizan comúnmente para construir y gestionar estas complejas pipelines RAG.

Aplicaciones y ejemplos

RAG es particularmente útil en escenarios que requieren precisión factual y acceso a datos dinámicos o especializados.

  • Sistemas avanzados de respuesta a preguntas: Un chatbot de atención al cliente puede utilizar RAG para acceder a toda la base de conocimientos de una empresa, que incluye manuales de productos, guías de solución de problemas y documentos de políticas. Cuando un cliente pregunta: "¿Cuál es la política de garantía de mi producto?", el sistema recupera el documento de garantía más reciente y lo utiliza para proporcionar una respuesta precisa y actualizada, lo que supone una mejora significativa con respecto a las respuestas genéricas.
  • Creación de contenido e investigación: Un analista financiero podría usar una herramienta impulsada por RAG para redactar un resumen del mercado. La herramienta podría recuperar los últimos informes financieros, noticias del mercado y datos del rendimiento de las acciones de fuentes confiables como Bloomberg o Reuters. Luego, el LLM sintetiza esta información en un informe coherente, completo con citas, lo que acelera enormemente el proceso de investigación.

RAG vs. Conceptos relacionados

Es útil distinguir RAG de otros métodos utilizados para mejorar el rendimiento de los LLM:

  • Ajuste fino: El ajuste fino adapta un modelo preentrenado continuando el entrenamiento en un conjunto de datos más pequeño y especializado, lo que modifica los pesos internos del modelo. A diferencia de RAG, no consulta datos externos durante la inferencia. El ajuste fino es ideal para enseñar a un modelo un nuevo estilo o habilidad, mientras que RAG es mejor para incorporar conocimiento factual. Estos enfoques también pueden ser complementarios.
  • Ingeniería de Prompts (Prompt Engineering): Este es el proceso manual de diseñar cuidadosamente prompts para obtener la salida deseada de un LLM. RAG automatiza una parte de esto añadiendo ("aumentando") programáticamente el prompt con datos recuperados, en lugar de depender de un humano para proporcionar manualmente todo el contexto.
  • Enriquecimiento de Prompts (Prompt Enrichment): Aunque similar a RAG, el enriquecimiento de prompts es un término más amplio. Podría implicar añadir contexto del historial del usuario o del flujo de conversación. RAG es un tipo específico de enriquecimiento centrado en recuperar información factual de una base de conocimiento externa para fundamentar la respuesta del modelo.

RAG en Visión Artificial

Si bien RAG se utiliza principalmente en el Procesamiento del Lenguaje Natural (PNL), su concepto central se está explorando para tareas de visión artificial (CV). Por ejemplo, un sistema podría recuperar información visual relevante para guiar la generación o el análisis de imágenes. Esto podría implicar la búsqueda de imágenes similares de un gran conjunto de datos para mejorar el rendimiento de un modelo de detección de objetos como Ultralytics YOLO. La gestión de estos complejos modelos y conjuntos de datos se agiliza con plataformas como Ultralytics HUB, que podría servir como base para futuras aplicaciones de modelos multimodales que utilizan RAG. Puede explorar una implementación relacionada en nuestro blog sobre cómo mejorar la IA con RAG y la visión artificial.

Únete a la comunidad de Ultralytics

Únete al futuro de la IA. Conecta, colabora y crece con innovadores de todo el mundo

Únete ahora
Enlace copiado al portapapeles