Entdecken Sie, wie Retrieval Augmented Generation (RAG) KI-Modelle verbessert, indem es zuverlässige externe Echtzeitdaten für genaue und aktuelle Antworten integriert.
Retrieval Augmented Generation (RAG) ist ein fortschrittliches Framework zur Optimierung der Ausgabe von Large Language Models (LLMs) durch indem eine maßgebliche Wissensbasis außerhalb der ursprünglichen Trainingsdaten referenziert wird. In standardmäßigen generativen KI-Systemen stützt sich das Modell ausschließlich auf die statischen Informationen, die es während des Trainings gelernt hat, was zu veralteten Antworten oder faktischen Fehlern führen kann, die als Halluzinationen. RAG überbrückt diese Lücke, indem es relevante, aktuelle Informationen aus vertrauenswürdigen externen Quellen abruft und sie dem Modell als Kontext zuführt bevor es eine Antwort generiert. Dieser Prozess bildet die Grundlage für die KI und gewährleistet hohe hohe Genauigkeit und Relevanz, ohne dass ein teures Modellnachschulung.
Der RAG-Workflow integriert zwei Hauptkomponenten: ein Retrievalsystem und ein Generierungsmodell. Diese Synergie verwandelt wie Verarbeitung natürlicher Sprache (NLP) Aufgaben ausgeführt werden.
RAG ist in Branchen, in denen sich Daten häufig ändern oder in denen es auf Präzision ankommt, unerlässlich.
Während die RAG-Konzepte traditionell textbasiert sind, weiten sie sich auf Computer Vision (CV). In einem multimodalen Modell könnte ein System ähnliche ähnliche Bilder oder visuelle Metadaten zur Unterstützung bei der Objekterkennung oder Klassifizierung zu unterstützen. Ein Beispiel, Die Identifizierung eines seltenen biologischen Exemplars könnte durch den Abruf von Referenzbildern aus einer wissenschaftlichen Datenbank verbessert werden, um um die visuelle Analyse zu ergänzen, die von Modellen wie Ultralytics YOLO11.
Es ist wichtig, die RAG von der Feinabstimmung zu unterscheiden, da sie unterschiedliche Probleme lösen:
In diesem Python simulieren wir einen grundlegenden RAG-Arbeitsablauf, indem wir ein Objekterkennungsmodell verwenden, um Fakten über ein Bild. Diese Fakten ergänzen dann eine Texteingabeaufforderung, die die Beschreibung auf verifizierte visuelle Daten stützt.
from ultralytics import YOLO
# Load the YOLO11 model acting as our 'retrieval' mechanism for visual facts
model = YOLO("yolo11n.pt")
# Run inference to retrieve content information from the image
results = model("https://ultralytics.com/images/bus.jpg")
# Extract detected classes to augment the prompt
detected_objects = [model.names[int(cls)] for cls in results[0].boxes.cls]
context_string = ", ".join(set(detected_objects))
# Construct the augmented prompt (RAG concept)
prompt = f"Based on the verified presence of {context_string} in the scene, describe the traffic situation."
print(f"Augmented Prompt: {prompt}")