Chain of Verification (CoVe)がLLMのハルシネーションをどのように削減するかを知りましょう。Ultralytics YOLO26と共にこのプロンプトエンジニアリング技術を使用して、事実の正確性を向上させる方法を学びましょう。
検証連鎖 (CoVe) は、大規模言語モデル (LLM)の出力における不正確さや事実誤りを減らすように設計された、高度なプロンプトエンジニアリング技術です。人工知能システムが複雑になるにつれて、自信を持って誤った情報を生成する傾向(LLMの幻覚として知られる現象)は、依然として大きな課題です。CoVeは、モデルがユーザーに最終的な回答を提示する前に、自身の初期応答を体系的に事実確認するように強制することで、この問題に対処します。この自己修正メカニズムは、さまざまな業界における生成AIアプリケーションの信頼性を大幅に向上させます。
CoVe手法は、生成プロセスを4つの明確な連続したステップに分解します。この構造化されたアプローチは、人間のファクトチェックワークフローを反映しており、AI safetyとアライメントを改善するために、主要なAI組織によって積極的に研究されています。
CoVeはしばしばChain-of-Thought Promptingと比較されますが、両者は異なる目的を果たします。Chain-of-Thoughtは、複雑な論理的推論を段階的なコンポーネントに分解して問題を解決することで、モデルに「思考プロセスを示す」ことを促します。対照的に、Chain of Verificationは、ドラフトが作成された後に主張を監査および修正することで、事実の正確性を具体的にターゲットとします。さらに、CoVeはRetrieval-Augmented Generation (RAG)パイプラインと組み合わせることができ、検証ステップが、モデルの内部重みにのみ依存するのではなく、外部のベクトルデータベースから真実のデータを取得します。
CoVeは、事実の正確性が極めて重要となる分野で非常に有益です。この自己チェックループを統合することで、開発者はより高いリスクを伴うタスクにおいて人工知能システムを信頼できるようになります。
CoVeの「実行」ステップを強化するには、開発者はグラウンドトゥルースデータのために権威ある機械学習モデルをクエリできます。例えば、Ultralytics YOLO26をオブジェクトdetectに使用することで、LLMは画像に関する物理的な主張を検証できます。チームは、直感的なUltralytics Platformを使用して、これらのデータセットを効率的に管理し、これらのビジョンモデルをデプロイできます。
次のPython 例は ultralytics Chain of Verificationステップを実行するLLMにとって事実の根拠源として機能しうる、検証済みのオブジェクトリストを抽出するためのパッケージ。
from ultralytics import YOLO
# Load the YOLO26n model to act as a factual verification source
model = YOLO("yolo26n.pt")
# Run inference on an image to get ground-truth detections
results = model("https://ultralytics.com/images/bus.jpg")
# Extract the class names of actually detected objects for CoVe grounding
detected_objects = [model.names[int(c)] for c in results[0].boxes.cls]
# Pass this factual list to the LLM during its verification execution step
print(f"CoVe Ground Truth Facts: {detected_objects}")
# Output example: ['bus', 'person', 'person', 'person', 'person']
PyTorchのような高性能ビジョンフレームワークからの決定論的な出力をCoVeパイプラインに統合することで、開発者は生成エラーを大幅に削減し、堅牢で信頼性の高いマルチモーダルAIアプリケーションを構築できます。

未来の機械学習で、新たな一歩を踏み出しましょう。