Retrieval Augmented Generation(RAG)が、リアルタイムで信頼性の高い外部データを統合して正確で最新の応答を実現することにより、AIモデルを強化する様子をご覧ください。
Retrieval Augmented Generation(RAG)は、大規模言語モデル(LLM)の出力を最適化するために設計された高度なフレームワークです。 大規模言語モデル(LLM)の出力を最適化するために設計された先進的なフレームワークである。 元の学習データ以外の権威ある知識ベースを参照することによって、大規模言語モデル(LLM)の出力を最適化するために設計された高度なフレームワークである。標準的な 標準的な生成AIシステムでは、モデルは学習中に学習した静的な情報のみに依存する。 標準的な生成AIシステムでは、モデルは訓練中に学習した静的な情報のみに依存するため、時代遅れの回答や、幻覚として知られる事実誤認につながる可能性がある。 幻覚RAGはこのギャップを次のように埋める。 信頼できる外部ソースから関連する最新の情報を取得し、それをコンテキストとしてモデルに与えることで、このギャップを埋める。 としてモデルに与える。このプロセスは、AIを効果的にグラウンディングさせ、高い精度と関連性を保証する。 高価なモデルの再トレーニングを必要とすることなく、高い精度と関連性を確保することができます。 モデルの再トレーニングを必要としません。
RAGワークフローは、検索システムと生成モデルという2つの主要コンポーネントを統合している。この相乗効果により どのように 自然言語処理(NLP) タスクの実行方法を変革する。
RAGは、データが頻繁に変更される業界や精度が重要な業界では不可欠である。
従来はテキストベースであったが、RAGのコンセプトはコンピュータ・ビジョン(CV)へと拡大している。 コンピュータ・ビジョン(CV)に拡大している。マルチモーダルモデルでは マルチモーダルモデルでは、システムが類似画像や視覚的メタデータを検索して 類似画像や視覚的メタデータを取得し、物体検出や分類を支援する。 オブジェクトの検出や分類を支援する。例えば のようなモデルが実行する視覚分析を補強するために、科学データベースから参照画像を検索することで、希少な生物学的標本の識別を向上させることができる。 のようなモデルによって実行される視覚分析を補強することができる。 Ultralytics YOLO11.
RAGと微調整を区別することは重要である。 RAGとファインチューニングを区別することは重要である:
このPython 例では、基本的なRAGワークフローをシミュレートする。 を "取得 "する。これらのファクトは、テキストプロンプトを補強し、検証されたビジュアルデータに説明を基づかせます。
from ultralytics import YOLO
# Load the YOLO11 model acting as our 'retrieval' mechanism for visual facts
model = YOLO("yolo11n.pt")
# Run inference to retrieve content information from the image
results = model("https://ultralytics.com/images/bus.jpg")
# Extract detected classes to augment the prompt
detected_objects = [model.names[int(cls)] for cls in results[0].boxes.cls]
context_string = ", ".join(set(detected_objects))
# Construct the augmented prompt (RAG concept)
prompt = f"Based on the verified presence of {context_string} in the scene, describe the traffic situation."
print(f"Augmented Prompt: {prompt}")


