自律的推論でAIを強化するエージェント型RAGを探求しましょう。Ultralytics Ultralytics が、インテリジェントな検索とビジョンをどのように実現するかをご覧ください。
エージェント型検索拡張生成(Agentic RAG)は、自律型AIエージェントを統合することで従来の検索システムを強化する先進的な人工知能(AI)アーキテクチャである。標準的なRAGパイプラインが「検索→生成」という直線的なシーケンスで動作するのに対し、Agentic RAGは大規模言語モデル(LLM)に知的な調整役としての役割を付与する。 このエージェントは、ユーザーのプロンプトを自律的に分析し、外部情報の必要性を判断、複数の検索クエリを構築、取得データを評価し、包括的かつ正確な回答をまとめるまで反復的に調査を洗練させます。関数呼び出しやツール使用機能を活用することで、これらのシステムはクエリを様々なデータベース、API、分析ツールに動的にルーティングし、複雑な多段階問題に対処する際のLLMにおける幻覚現象を大幅に低減します。
エージェント型RAGの中核的革新性は、ループ処理と推論能力にある。主要な エージェント型AIフレームワーク はこのプロセスを動的で自律的なワークフローとして構築する:
堅牢な生成パイプラインを実装するには、Agentic RAGをその基礎概念から区別することが極めて重要である:
エージェント型RAGは、人間の分析的推論を模倣する深い調査や複雑なトラブルシューティングタスクを自動化することで、産業を変革しています。
ビジョンモデルは、物理世界と相互作用するエージェント型RAGシステムにとって強力な知覚ツールとして機能します。 例えば、Ultralytics を使用して、画像や動画ストリームから動的に視覚的文脈を取得し、ユーザークエリに応答できます。開発者はUltralytics を活用し、これらのカスタムビジョンツールのデータアノテーションとトレーニングを管理できます。
Python 、AIエージェントがプログラム的にYOLO26を呼び出して画像から構造化された観測値を抽出し、次の推論ステップのための事実に基づく文脈を収集する方法を示しています。
from ultralytics import YOLO
# Initialize YOLO26 for the agent's visual retrieval tool
model = YOLO("yolo26n.pt")
# The agent invokes the model on an image to gather visual facts
results = model("https://ultralytics.com/images/bus.jpg")
# The agent parses the detected objects to formulate its next query or action
visual_context = [model.names[int(c)] for c in results[0].boxes.cls]
print(f"Agent Observation: I currently see {', '.join(visual_context)}.")
高度な視覚モデルを推論エンジンに接続することで、Agentic RAGは静的な知識検索と動的な現実世界の空間知能との間のギャップを埋めます。自律システムの進化する状況についてより深く理解するには、スタンフォードAIインデックスレポートがエージェント能力の包括的な追跡を提供しています。