Yolo 深圳
深セン
今すぐ参加
用語集

作用機序(MoA)

「Mixture of Agents(MoA)」が複数のLLMを活用して複雑なタスクを解決する仕組みをご紹介します。MoAワークフローUltralytics 視覚エージェントとして統合する方法をご確認ください。

エージェントの集合体(MoA)は、複数の 大規模言語モデル(LLM)や自律型 エージェントを活用して、複雑なタスクを協調的に解決する高度な人工知能アーキテクチャです。MoA システムは、単一のモデルに依存して応答を生成するのではなく、複数の異なるモデルに同時にクエリを送信します。これらの初期エージェントは独立した回答を生成し、 それらはその後、アグリゲーターまたはシンセサイザーエージェントに渡されます。 アグリゲーターは、多様な 視点を評価・精緻化し、単一の質の高い最終出力へと統合します。この協調的なアプローチは推論 能力を大幅に向上させ、単独モデルの個々のバイアスや弱点を軽減するため、自然言語処理(NLP) および問題解決における 大きな飛躍を もたらしています。

エージェントの混合 vs. 専門家の混合

これらは似ているように聞こえますが、MoAと関連する概念である Mixture of Experts(MoE)とを区別することが極めて重要です。

  • Mixture of Experts (MoE):単一の ニューラルネットワークアーキテクチャ内で動作します。推論時にルーティング メカニズムを用いて、各トークンに対して特定の特化されたサブレイヤー(エキスパート)のみを活性化させます。これにより、 パラメータ数を多く維持しつつ、計算効率を最適化します。
  • エージェントの混合(MoA):モデルレベルまたはシステムレベルで動作する。これは、完全に独立した AIエージェント(多くの場合、異なる基盤 モデルに基づいて構築されたもの)が、パイプライン内で相互作用する仕組みである。MoAは、最近のマルチエージェントシステム研究で詳述されているように、 モデルアンサンブルとインテリジェントなレビュー プロセスを組み合わせたような働きをする。

実際のアプリケーション

MoAアーキテクチャは、高度な推論、事実確認、および多様なデータの統合が求められる環境において優れた性能を発揮します。

  • 複雑なソフトウェア工学:ソフトウェア開発において、MoAシステムでは、 コアロジックの記述にAnthropic 、 ユニットテストの生成にOpenAI GPT-4oを、そしてセキュリティ監査には ローカライズされたモデルを活用する場合があります。最後に、アグリゲーターエージェントが統合されたコードを検証・テストし、洗練されたバグのない スクリプトを出力します。
  • 自動化された医療診断: 医療分野におけるAIでは、診断のメカニズム(MoA)パイプラインが、 専門のエージェントを配備して、患者の病歴を確認し、検査結果を分析し、医療画像を処理することができます。 シンセサイザー・エージェントはこれらの所見を統合し、医師が包括的な診断を下すのを支援することで、 人為的ミスの可能性を大幅に低減します。

ビジョンをMoAワークフローに統合する

現代のMoAシステムはますますマルチモーダル化が進んでおり、つまり、 物理世界を認識してから推論を行うために、 コンピュータビジョン(CV)モデルに依存している。例えば、 製造業におけるAIでは、視覚エージェントが ライブカメラ映像を検査し、その事実に基づく観察結果を推論エージェントに送信することができる。

Python 、 Ultralytics MoAパイプライン内で「視覚 エージェント」として機能し、下流のLLMに供給するためのコンテキストデータを抽出する方法を示しています。開発者は、Ultralytics 、これらの特殊なビジョンツールをシームレスに 管理・微調整することができます。

from ultralytics import YOLO

# Initialize YOLO26 as a dedicated visual agent
visual_agent = YOLO("yolo26n.pt")

# The agent observes the environment by running inference on an image
results = visual_agent("https://ultralytics.com/images/bus.jpg")

# Extract structured data to pass to the MoA aggregator
detected_classes = [visual_agent.names[int(cls)] for cls in results[0].boxes.cls]
unique_objects = set(detected_classes)

# This text context is then sent to the reasoning agent
print(f"Visual Agent Report: I have identified {', '.join(unique_objects)} in the scene.")

次のようなフレームワークで構築された高性能なビジョンモデル間のギャップを埋めることで PyTorchGoogle のような高度な認知エンジンとの間のギャップを埋めることで、MoAエコシステムは人間のコラボレーションを再現します。これらは エージェント型RAGパイプラインの基盤として急速に定着しつつあり、 より堅牢で信頼性の高い自律システムへの道を切り開いています。

一緒にAIの未来を築きましょう!

未来の機械学習で、新たな一歩を踏み出しましょう。