Узнайте, как Retrieval Augmented Generation (RAG) улучшает модели ИИ, интегрируя надежные внешние данные в реальном времени для получения точных и актуальных ответов.
Retrieval Augmented Generation (RAG) - это продвинутая система, разработанная для оптимизации вывода больших языковых моделей (LLM) путем обращения к авторитетной базе знаний за пределами исходных обучающих данных. В стандартных генеративных системах ИИ модель полагается исключительно на статической информации, которую она усвоила в процессе обучения, что может привести к устаревшим ответам или фактическим ошибкам, известным как галлюцинации. RAG устраняет этот пробел путем извлечения релевантной, актуальной информации из доверенных внешних источников и предоставления ее модели в качестве контекста перед генерацией ответа. Этот процесс эффективно обосновывает работу ИИ, обеспечивая высокую точность и релевантность без необходимости дорогостоящего переобучения модели.
Рабочий процесс RAG объединяет два основных компонента: поисковую систему и модель генерации. Эта синергия преобразует как обработка естественного языка (NLP) выполнение задач.
RAG незаменим в отраслях, где данные часто меняются или где важна точность.
Традиционно основанные на текстовых данных, концепции RAG распространяются на компьютерного зрения (КВ). В мультимодальной модели система может извлекать похожие изображения или визуальные метаданные для помощи в обнаружении или классификации объектов. Например, идентификация редкого биологического образца может быть улучшена путем извлечения эталонных изображений из научной базы данных, чтобы дополнить визуальный анализ, выполняемый такими моделями, как Ultralytics YOLO11.
Важно различать RAG и тонкую настройку, поскольку они решают разные задачи:
В этом примере Python мы смоделируем базовый рабочий процесс RAG, используя модель обнаружения объектов для "извлечения" фактов об изображении. Затем эти факты дополняют текстовую подсказку, обосновывая описание проверенными визуальными данными.
from ultralytics import YOLO
# Load the YOLO11 model acting as our 'retrieval' mechanism for visual facts
model = YOLO("yolo11n.pt")
# Run inference to retrieve content information from the image
results = model("https://ultralytics.com/images/bus.jpg")
# Extract detected classes to augment the prompt
detected_objects = [model.names[int(cls)] for cls in results[0].boxes.cls]
context_string = ", ".join(set(detected_objects))
# Construct the augmented prompt (RAG concept)
prompt = f"Based on the verified presence of {context_string} in the scene, describe the traffic situation."
print(f"Augmented Prompt: {prompt}")