Descubra cómo la Generación Aumentada por Recuperación (RAG) mejora los modelos de IA integrando datos externos fiables y en tiempo real para obtener respuestas precisas y actualizadas.
Retrieval Augmented Generation (RAG) es un marco avanzado diseñado para optimizar la salida de grandes modelos lingüísticos (LLM) haciendo referencia a una base de conocimientos autorizada fuera de sus datos de entrenamiento originales. En los sistemas generativos estándar, el modelo se basa únicamente en la información estática que aprendió durante el entrenamiento, lo que puede dar lugar a respuestas obsoletas o errores factuales conocidos como alucinaciones. RAG cubre este vacío información relevante y actualizada de fuentes externas fiables y la introduce en el modelo como contexto antes de generar una respuesta. antes de generar una respuesta. Este proceso sirve de base a la IA, garantizando precisión y pertinencia sin necesidad de reentrenamiento del modelo.
El flujo de trabajo del GAR integra dos componentes principales: un sistema de recuperación y un modelo de generación. Esta sinergia transforma cómo procesamiento del lenguaje natural (PLN) (PLN).
El GAR es esencial en sectores en los que los datos cambian con frecuencia o en los que la precisión es fundamental.
Aunque tradicionalmente se basan en el texto, los conceptos de GAR se están ampliando a la la visión por ordenador (CV). En un modelo modelo multimodal, un sistema podría recuperar imágenes similares o metadatos visuales que ayuden a la detección o clasificación de objetos. Por ejemplo, la identificación de un espécimen biológico poco común podría mejorarse recuperando imágenes de referencia de una base de datos científica para base de datos científica para aumentar el análisis visual realizado por modelos como Ultralytics YOLO11.
Es importante distinguir entre la GAR y el ajuste fino, ya que resuelven problemas diferentes:
En este ejemplo Python , simulamos un flujo de trabajo RAG básico utilizando un modelo de detección de objetos para "recuperar" datos sobre una imagen. A continuación, estos hechos aumentan una indicación de texto, basando la descripción en datos visuales verificados.
from ultralytics import YOLO
# Load the YOLO11 model acting as our 'retrieval' mechanism for visual facts
model = YOLO("yolo11n.pt")
# Run inference to retrieve content information from the image
results = model("https://ultralytics.com/images/bus.jpg")
# Extract detected classes to augment the prompt
detected_objects = [model.names[int(cls)] for cls in results[0].boxes.cls]
context_string = ", ".join(set(detected_objects))
# Construct the augmented prompt (RAG concept)
prompt = f"Based on the verified presence of {context_string} in the scene, describe the traffic situation."
print(f"Augmented Prompt: {prompt}")