Descubra como a Geração Aumentada por Recuperação (RAG) aprimora os modelos de IA, integrando dados externos confiáveis e em tempo real para obter respostas precisas e atualizadas.
O Retrieval Augmented Generation (RAG) é um quadro avançado concebido para otimizar os resultados de modelos de linguagem de grande porte (LLMs) referenciando uma base de conhecimento autorizada fora dos seus dados de treino originais. Nos sistemas de sistemas de IA generativa, o modelo baseia-se apenas na informação estática que aprendeu durante o treino, o que pode levar a respostas desactualizadas ou erros factuais conhecidos como alucinações. O RAG colmata esta lacuna recuperando informações relevantes e actualizadas de fontes externas fiáveis e fornecendo-as ao modelo como contexto antes de gerar uma resposta. Este processo fundamenta efetivamente a IA, garantindo uma elevada precisão e relevância sem a necessidade de um dispendioso de um novo treino do modelo.
O fluxo de trabalho RAG integra dois componentes principais: um sistema de recuperação e um modelo de geração. Esta sinergia transforma como processamento da linguagem natural (PNL) são executadas.
O RAG é essencial nos sectores em que os dados mudam frequentemente ou em que a precisão é crítica.
Embora tradicionalmente baseados em texto, os conceitos RAG estão a expandir-se para visão computacional (CV). Num modelo multimodal, um sistema pode recuperar imagens semelhantes ou metadados visuais para ajudar na deteção ou classificação de objectos. Por exemplo, a identificação de um espécime biológico raro pode ser melhorada através da recuperação de imagens de referência de uma base de dados científica para para aumentar a análise visual efectuada por modelos como Ultralytics YOLO11.
É importante distinguir as OAR do ajustamento fino, uma vez que resolvem problemas diferentes:
Neste exemplo Python , simulamos um fluxo de trabalho RAG básico, utilizando um modelo de deteção de objectos para "recuperar" factos factos sobre uma imagem. Estes factos aumentam então uma mensagem de texto, baseando a descrição em dados visuais verificados.
from ultralytics import YOLO
# Load the YOLO11 model acting as our 'retrieval' mechanism for visual facts
model = YOLO("yolo11n.pt")
# Run inference to retrieve content information from the image
results = model("https://ultralytics.com/images/bus.jpg")
# Extract detected classes to augment the prompt
detected_objects = [model.names[int(cls)] for cls in results[0].boxes.cls]
context_string = ", ".join(set(detected_objects))
# Construct the augmented prompt (RAG concept)
prompt = f"Based on the verified presence of {context_string} in the scene, describe the traffic situation."
print(f"Augmented Prompt: {prompt}")