用語集

プロンプト・チェイニング

プロンプト・チェイニング:ラージ・ランゲージ・モデルを使った複雑なタスクの精度、制御、正確さを向上させるステップバイステップのAIテクニックをご覧ください。

プロンプト・チェーニングは、人工知能(AI)モデルのために、複雑なタスクを一連の小さな、相互に接続されたプロンプトに分解して管理するために使用される強力なテクニックである。マルチステップの問題を解決するために単一の巨大なプロンプトに依存するのではなく、1つのプロンプトからの出力が次のプロンプトの入力になる連鎖が作成されます。このモジュラーアプローチは、AIシステム、特に大規模言語モデル(LLM)の信頼性、透明性、全体的なパフォーマンスを向上させる。これにより、ロジック、外部ツール、さらには複数の異なるAIモデルを含む、高度なワークフローの構築が可能になる。

プロンプト・チェイニングの仕組み

プロンプトチェーニングは、1つまたは複数のAIモデルへの一連の呼び出しをオーケストレーションする。最初のプロンプトがモデルに送信され、その応答が処理され、その応答から重要な情報が抽出され、シーケンスの次のプロンプトを構築するために使用される。このサイクルは、最終的なゴールが達成されるまで続く。この方法論は、推論し行動できるAIエージェントを構築するために不可欠である。

このアプローチにより、タスクの分解が可能になり、連鎖の各ステップが特定のサブタスクに最適化される。例えば、あるプロンプトは情報抽出用に、次のプロンプトはデータ要約用に、そして最後のプロンプトは創造的なテキスト生成用に設計されるかもしれない。LangChainのようなフレームワークは、状態、プロンプト、外部ツールの統合を管理することで、このようなチェーンの開発を簡素化するよう特別に設計されている。

実世界での応用

プロンプト・チェイニングは汎用性が高く、機械学習(ML)やワークフローの自動化において多くの実用的な用途がある。

  1. 自動カスタマーサポートエージェント:ユーザーは複雑なサポートチケットを提出します。

    • プロンプト1(分類):LLMはユーザーのメッセージを分析し、問題を分類します(「課金」、「技術」、「アカウントアクセス」など)。
    • プロンプト2(データ検索):技術的」分類に基づいて、システムは検索拡張生成(RAG)ステップを実行する。新たなプロンプトでは、AIに技術知識ベースから関連文書を検索するよう求める。
    • プロンプト3(回答生成):検索されたドキュメントは最終プロンプトに入力され、LLMが情報を総合し、ユーザーのために明確なステップバイステップのソリューションを生成するよう指示します。RAGシステムの仕組みについて詳しく知る。
  2. マルチモーダルなコンテンツ作成あるマーケティング担当者が、新製品のソーシャルメディアキャンペーンを行いたいと考えている。

    • プロンプト1(テキスト生成):マーケティング担当者が製品の詳細を提供し、LLMに5つのキャッチーなマーケティングスローガンを生成するよう求めるプロンプト。
    • プロンプト2(画像生成):選ばれたスローガンは、Stable Diffusionのようなテキストから画像に変換するモデルで、対応するビジュアルを作成するための新しいプロンプトの種として使用されます。
    • プロンプト3(ビジョン分析):カスタムトレーニングされたUltralytics YOLOモデルのようなコンピュータビジョンモデルは、生成された画像がブランドガイドラインに適合していることを確認する(例えば、正しいロゴが存在することを確認する)ために、その後のステップで使用することができます。このようなモデルは、Ultralytics HUBのようなプラットフォームで管理・展開することができます。

プロンプト・チェイニングと関連コンセプト

プロンプト・チェイニングを類似のテクニックと区別することは有益だ:

  • プロンプトエンジニアリング:プロンプトエンジニアリングとは、効果的なプロンプトを設計するための幅広い実践方法である。プロンプトチェーニングは、プロンプトエンジニアリングにおける特定のテクニックの1つであり、複数のプロンプトを連続的に構成することに重点を置いている。

  • チェーン・オブ・ソート(CoT)プロンプティング:CoTは、LLMに "ステップバイステップで考える "ように促すことで、1つのプロンプトの中でLLMの推論力を向上させることを目的としている。対照的に、プロンプト・チェイニングは、タスクを複数の明確なプロンプト・ステップに分割し、それぞれのステップで異なるモデルやツールを使用することができる。

  • 検索補強型ジェネレーション(RAG):RAGは、AIが応答を生成する前に、外部ソースから情報を取得するテクニックである。RAGは、より大きなプロンプト連鎖の中の特定のステップとして使用されることが多く、連鎖のメカニズムそのものとして使用されることはない。

  • プロンプト・エンリッチメント:これは、AIに送信される前に、ユーザーの最初のプロンプトに自動的にコンテキストを追加することである。相互に接続された複数のプロンプトを順次処理するのではなく、単一のプロンプトを強化する。

  • プロンプト・チューニング:モデルの学習中に「ソフトプロンプト(埋め込み)」を学習する、パラメータ効率の良い微調整(PEFT)手法。プロンプト連鎖の実行構造とは異なる、モデルのカスタマイズ手法である。

プロンプト・チェイニングは、LLMのような高度なAIモデルとのインタラクションを構造化し、さらには画像分類や インスタンス分割に使用されるものを含む他のAIシステムと統合するための強力な手法である。これにより、複雑なタスクがより管理しやすくなり、基本的なデータ分析から高度なマルチモーダルAIシステムまで、さまざまな機械学習アプリケーションにおける結果の信頼性が向上する。このようなチェーンのコンポーネントを形成する特殊なモデルの展開は、エンドツーエンドのプラットフォームによって促進されます。このような高度なワークフローに統合可能な、さまざまなコンピュータビジョンタスクを調べることができます。

Ultralyticsコミュニティに参加する

AIの未来に参加しませんか。世界のイノベーターとつながり、協力し、成長する

今すぐ参加する
クリップボードにコピーされたリンク