YOLO Vision Shenzhen
深セン
今すぐ参加
用語集

検証連鎖 (CoVe)

Chain of Verification (CoVe)がLLMのハルシネーションをどのように削減するかを知りましょう。Ultralytics YOLO26と共にこのプロンプトエンジニアリング技術を使用して、事実の正確性を向上させる方法を学びましょう。

検証連鎖 (CoVe) は、大規模言語モデル (LLM)の出力における不正確さや事実誤りを減らすように設計された、高度なプロンプトエンジニアリング技術です。人工知能システムが複雑になるにつれて、自信を持って誤った情報を生成する傾向(LLMの幻覚として知られる現象)は、依然として大きな課題です。CoVeは、モデルがユーザーに最終的な回答を提示する前に、自身の初期応答を体系的に事実確認するように強制することで、この問題に対処します。この自己修正メカニズムは、さまざまな業界における生成AIアプリケーションの信頼性を大幅に向上させます。

検証プロセスの仕組み

CoVe手法は、生成プロセスを4つの明確な連続したステップに分解します。この構造化されたアプローチは、人間のファクトチェックワークフローを反映しており、AI safetyとアライメントを改善するために、主要なAI組織によって積極的に研究されています。

  • Draft an Initial Response: モデルはユーザーのクエリに対するベースラインの回答を生成します。この草稿には、未検証または幻覚的な主張が含まれる可能性があります。
  • 計画検証質問: モデルは自身のドラフトを分析し、初期テキストで行われた事実の主張を検証するために設計された、特定の、的を絞った質問のリストを生成します。
  • 独立した検証の実行: モデルは、元のドラフトの文脈に依存することなく、検証質問に独立して回答します。これにより、モデルが自身のバイアスや以前の誤りを単に確認するのを防ぎます。
  • 最終的な検証済み出力を生成する: 新たに検証された事実を用いて、モデルは初期のドラフトを修正し、不正確な点を除去して、洗練された真実の応答を提示します。

CoVeと関連技術の差別化

CoVeはしばしばChain-of-Thought Promptingと比較されますが、両者は異なる目的を果たします。Chain-of-Thoughtは、複雑な論理的推論を段階的なコンポーネントに分解して問題を解決することで、モデルに「思考プロセスを示す」ことを促します。対照的に、Chain of Verificationは、ドラフトが作成された後に主張を監査および修正することで、事実の正確性を具体的にターゲットとします。さらに、CoVeはRetrieval-Augmented Generation (RAG)パイプラインと組み合わせることができ、検証ステップが、モデルの内部重みにのみ依存するのではなく、外部のベクトルデータベースから真実のデータを取得します。

実際のアプリケーション

CoVeは、事実の正確性が極めて重要となる分野で非常に有益です。この自己チェックループを統合することで、開発者はより高いリスクを伴うタスクにおいて人工知能システムを信頼できるようになります。

  • Medical and Healthcare Assistants: AIが患者の症状や医学文献を要約する際、CoVeは、システムが確立された医学的知識と照合して薬物相互作用、投与量、診断基準を検証してから推奨事項を提供するようにします。
  • Automated Industrial Reporting: スマートファクトリーでは、LLMが目視検査ログに基づいて要約レポートを生成する場合があります。CoVeと コンピュータービジョンモデルを組み合わせることで、言語モデルは ビジョンシステムに問い合わせて、日次メンテナンスレポートを最終化する前に、特定の欠陥が生産ラインで実際にdetectされたかどうかを確認できます。

視覚モデルによるグラウンディング検証

CoVeの「実行」ステップを強化するには、開発者はグラウンドトゥルースデータのために権威ある機械学習モデルをクエリできます。例えば、Ultralytics YOLO26オブジェクトdetectに使用することで、LLMは画像に関する物理的な主張を検証できます。チームは、直感的なUltralytics Platformを使用して、これらのデータセットを効率的に管理し、これらのビジョンモデルをデプロイできます。

次のPython 例は ultralytics Chain of Verificationステップを実行するLLMにとって事実の根拠源として機能しうる、検証済みのオブジェクトリストを抽出するためのパッケージ。

from ultralytics import YOLO

# Load the YOLO26n model to act as a factual verification source
model = YOLO("yolo26n.pt")

# Run inference on an image to get ground-truth detections
results = model("https://ultralytics.com/images/bus.jpg")

# Extract the class names of actually detected objects for CoVe grounding
detected_objects = [model.names[int(c)] for c in results[0].boxes.cls]

# Pass this factual list to the LLM during its verification execution step
print(f"CoVe Ground Truth Facts: {detected_objects}")
# Output example: ['bus', 'person', 'person', 'person', 'person']

PyTorchのような高性能ビジョンフレームワークからの決定論的な出力をCoVeパイプラインに統合することで、開発者は生成エラーを大幅に削減し、堅牢で信頼性の高いマルチモーダルAIアプリケーションを構築できます。

共にAIの未来を築きましょう!

未来の機械学習で、新たな一歩を踏み出しましょう。