Yolo 深圳
深セン
今すぐ参加
用語集

Chain-of-Thoughtプロンプティング

Explore how Chain-of-Thought prompting enhances AI reasoning. Learn to use CoT for complex tasks, from LLM logic to generating [YOLO26](https://docs.ultralytics.com/models/yolo26/) code.

思考の連鎖(CoT)プロンプティングは、プロンプトエンジニアリングにおける高度な技術であり、大規模言語モデル(LLM)が複雑な推論タスクを中間的な論理ステップに分解することで解決することを可能にします。CoTは、モデルに即座に最終回答を求めるのではなく、人間の問題解決を模倣した「思考の流れ」を生成するようシステムに促します。 この段階的な推論は、算術、記号論理、常識推論を伴うタスクの性能を大幅に向上させ、 人工知能(AI)システムとの対話方法を変革します。

推論のメカニズム

標準的な言語モデルは、単一のパスで入力を出力に直接マッピングしようとするため、多段階の問題にしばしば苦戦します。この「ブラックボックス」アプローチは、特に論理的な飛躍が大きすぎる場合に誤りを引き起こす可能性があります。思考の連鎖プロンプティングは、入力質問と最終出力の間に推論ステップを挿入することでこの問題を解決します。

このプロセスは一般的に二つの方法で機能します:

  • ゼロショットCoT:ユーザーはプロンプトに「段階的に考えよう」といった単純なトリガーフレーズを追加する。 これにより、特定の例を必要とせずにモデルの潜在的な推論能力が活性化される。
  • 少例学習による問題解決(Few-Shot CoT):プロンプトには、いくつかの質問例(模範例)とその段階的な解答がペアで含まれています。これにより少例学習を活用し、モデルが新たな問題に取り組む前に、その論理構造を正確に構築する方法を示します。

中間推論を明示的に生成することで、モデルは自己修正の機会を増やし、結論に至る過程の透明性を提供します。これはLLMにおける幻覚現象の低減に極めて重要です。幻覚が生じると、モデルは誤った事実を確信を持って述べる可能性があるためです。

実際のアプリケーション

当初はテキストベースの推論向けに開発されたものの、思考連鎖プロンプティングはコンピュータビジョンやコード生成といった他のAI領域と組み合わせることで強力な応用が可能となる。

1. コンピュータビジョン向けコード生成の強化

開発者はCoTを用いて、物体検出などのタスク向けに複雑なソフトウェアスクリプトをLLMに記述させる。 「車を検出するコードを書け」といった曖昧な要求ではなく、CoTプロンプトでは要求を構造化する: 「まず、必要なライブラリをインポートする。次に、事前学習済みモデルを読み込む。第三に、画像ソースを定義する。最後に、予測ループを実行する。」 この構造化されたアプローチにより、YOLO26のようなモデル向けに生成されるコードは 構文的に正しく、論理的に妥当であることが保証される。

2. 自律的意思決定

自動運転車の分野では、システムは視覚データを処理し、安全上極めて重要な判断を下さねばならない。 思考の連鎖アプローチにより、システムは その論理を明示できる:「横断detect 。歩行者は道路を向いている。信号は青だが歩行者が横断する可能性がある。したがって減速し停止準備を行う」。これによりAIの判断は解釈可能となり、 説明可能なAI(XAI)の原則に沿う。

思考の連鎖の実践

CoTは主に自然言語技術ですが、視覚モデルとの一貫した相互作用を確保するためにプログラムで実装することも可能です。以下のPython 、Ultralytics 有効な推論コードを生成するようLLM(ここではシミュレート)を導くプロンプトをどのように構成できるかを示しています。

# Example of structuring a Chain-of-Thought prompt for an LLM
# This prompt guides the model to write a valid YOLO26 inference script

cot_prompt = """
Task: Write a Python script to detect objects using YOLO26.

Chain of Thought:
1. Import the YOLO class from the 'ultralytics' library.
2. Load the 'yolo26n.pt' model weights (the latest nano model).
3. Load a sample image using a URL or local path.
4. Run the predict() function and save the results.

Based on these steps, generate the Python code below:
"""

# In a real application, you would send 'cot_prompt' to an LLM API
print(f"Structured Prompt for LLM:\n{cot_prompt}")

関連概念の区別

機械学習(ML)の分野において、思考の連鎖(Chain-of-Thought)プロンプティングを類似の用語と区別することが重要です:

  • プロンプトチェイニングこれは複数の独立したモデル呼び出しを連結する手法であり、あるステップの出力が次のステップの入力となる。CoTは単一のプロンプト内で内部推論を引き出すのに対し、プロンプトチェイニングは複数の対話にまたがるワークフローを調整する。
  • 検索拡張生成(RAG) RAGは、モデルの知識を裏付けるために外部データ(文書やデータベースなど)を取得することに焦点を当てています。CoTは推論プロセスそのものに焦点を当てています。多くの場合、これらは組み合わされます——RAGで事実を取得し、CoTでそれらについて推論するのです。
  • プロンプトチューニングこれは パラメータ効率に優れた微調整手法であり、学習中に連続的なソフトプロンプト(ベクトル)を最適化する。CoTは モデル重みを変更せずに リアルタイム推論時に適用される 離散的な自然言語戦略である。

今後の展望

基盤モデルが進化を続ける中、 思考連鎖(CoT)プロンプティングは、その潜在能力を最大限に引き出すための標準的なベストプラクティスとなりつつある。Google などの研究グループによる調査では、モデルの規模が大きくなるにつれて、思考連鎖推論を実行する能力が劇的に向上することが示唆されている。この進化は、医療からスマート製造に至るまで、様々な産業における複雑なワークフローを処理できる、より信頼性の高い自律エージェントの実現への道を開いている。

Ultralytics コミュニティに参加する

AIの未来を共に切り開きましょう。グローバルなイノベーターと繋がり、協力し、成長を。

今すぐ参加