YOLO Vision Shenzhen
深セン
今すぐ参加
用語集

プロンプトチェイニング

プロンプトチェイニングが複雑なAIタスクを信頼性の高いワークフローに分解する仕組みを学びましょう。高度なAIエージェントを構築するために、Ultralytics YOLO26 を LLM と統合する方法を探求してください。

プロンプトチェーンは、人工知能 (AI)開発における高度なアーキテクチャパターンであり、複雑なタスクを、より小さく管理しやすい一連のサブタスクに分解します。このワークフローでは、あるステップの出力(多くの場合、大規模言語モデル (LLM)またはコンピュータービジョンシステムによって生成される)が、次のステップの入力として機能します。多面的な問題を一度に解決しようとする単一のモノリシックなプロンプトとは異なり、チェーン化により、開発者はより信頼性が高く、テスト可能で、高性能なアプリケーションを構築できます。このモジュラーアプローチは、推論し、ウェブを閲覧し、物理環境と対話できる洗練されたAIエージェントを作成するために不可欠です。

チェイニングのメカニズム

プロンプトチェイニングの核となるのは、基盤モデルにおけるコンテキストウィンドウと推論能力の限界に対処することです。モデルが単一のリクエストで多数の異なる操作を実行するよう求められた場合(例:「この画像を分析し、テキストを抽出し、スペイン語に翻訳し、JSON請求書としてフォーマットしてください」)、エラーの確率が増加します。これをパイプラインに分割することで、開発者は各ステージの精度を検証できます。

効果的なチェーンでは、ステップ間のデータ変換を処理するために、Pythonで記述された「グルーコード」や、LangChainのようなオーケストレーションライブラリが利用されることがよくあります。これにより、Object Detectionの視覚的精度と生成テキストモデルの言語的流暢さを組み合わせるなど、異なるテクノロジーの統合が可能になります。

実際のアプリケーション

プロンプトチェーンは、異なるデータモダリティ間のギャップを埋める際に特に強力であり、マルチモーダルモデルが動的な産業および商業環境で機能することを可能にします。

  1. 自動ビジュアルレポート: スマートマニュファクチャリングでは、品質管理システムがビジョンモデルとLLMを連携させることができます。まず、Ultralytics YOLO26のような高速モデルが組立ライン上のコンポーネントをスキャンします。構造化された出力(例:「Class: Dented_Can, Confidence: 0.92」)はテキスト文字列に変換されます。このテキストは、「この欠陥に基づいてメンテナンス要求を作成してください」といったプロンプトとともに言語モデルに渡され、現場マネージャー向けの人間が読める形式のメールが生成されます。
  2. コンテキスト認識型カスタマーサポート: インテリジェントなチャットボットは、複雑なユーザーの問い合わせに対応するために、しばしばチェイニングを使用します。チェーンの最初のリンクは、ユーザーの意図をclassifyするためにNatural Language Processing (NLP)を使用するかもしれません。意図が技術的な場合、システムはRetrieval-Augmented Generation (RAG)ワークフローをトリガーします。これは、クエリのembeddingsを生成し、ドキュメントのベクトルデータベースを検索し、最終的にLLMにプロンプトを与えて、取得したチャンクを役立つ回答に統合させます。

Vision-to-Language コード例

以下の例は、チェーンの最初の「リンク」を示しています。コンピュータビジョン(CV)を使用して、ダウンストリームプロンプトのコンテキストとして機能する構造化データを生成する方法です。

from ultralytics import YOLO

# Load the YOLO26 model (natively end-to-end and highly efficient)
model = YOLO("yolo26n.pt")

# Step 1: Run inference to 'see' the environment
results = model("https://ultralytics.com/images/bus.jpg")

# Step 2: Format visual detections into a natural language string
det_names = [model.names[int(c)] for c in results[0].boxes.cls]
prompt_context = f"The scene contains: {', '.join(det_names)}. Please describe the likely activity."

# The 'prompt_context' variable is now ready to be sent to an LLM API
print(prompt_context)

関連概念の区別

効果的な機械学習 (ML)アーキテクチャを実装するためには、AI分野における類似の用語とプロンプトチェイニングを区別することが役立ちます。

  • Vs. Chain-of-Thought Prompting: Chain-of-Thought (CoT) は、単一のプロンプト内でモデルに「思考プロセスを示す」ことを促す(例:「段階的に考える」)ために使用される手法です。プロンプトチェイニングは、ステップBへの入力がステップAの出力に依存する、複数の異なるAPI呼び出しを伴います。
  • Vs. プロンプトエンジニアリング: プロンプトエンジニアリングは、より良いモデル性能を引き出すためにテキスト入力を最適化する、より広範な分野です。チェイニングは、操作の順次フローとロジック制御に焦点を当てた特定のエンジニアリングパターンです。
  • Vs. プロンプトチューニング: プロンプトチューニングは、訓練フェーズ中に学習可能なパラメータ(ソフトプロンプト)を更新するモデル最適化手法です。プロンプトチェイニングはリアルタイム推論中に完全に発生し、モデルのモデルの重みを変更しません。

プロンプトチェーンを活用することで、チームはロジック、データ取得、そして行動認識を統合する堅牢なアプリケーションを構築できます。これらのチェーンを駆動するデータセットの管理とビジョンモデルの訓練のために、Ultralytics Platformはアノテーション、訓練、デプロイのための集中型ソリューションを提供します。

共にAIの未来を築きましょう!

未来の機械学習で、新たな一歩を踏み出しましょう。