YOLO Vision Shenzhen
深セン
今すぐ参加
用語集

憲法AI

Constitutional AIが倫理的原則を用いてモデルを人間の価値観にどのように合わせるかを探求します。Ultralytics YOLO26を使用してコンピュータービジョンに安全チェックを実装する方法を学びましょう。

Constitutional AIは、個々の出力に対する広範な人間のフィードバックのみに頼るのではなく、高レベルの原則、つまり「憲法」のセットを提供することで、人工知能システムを人間の価値観に合わせるためのトレーニング方法です。このアプローチは、AIモデルに「役に立つ」「無害である」「差別を避ける」といった事前定義された一連のルールに基づいて、自身の行動を批判し修正することを本質的に教えます。これらの倫理的ガイドラインをトレーニングプロセスに直接組み込むことで、開発者は手動の人間のフィードバックからの強化学習 (RLHF)に依存するシステムよりも、より安全で、より透明性が高く、スケールしやすいシステムを作成できます。

コンスティテューショナルAIのメカニズム

Constitutional AIの核となる革新は、モデルのアライメントを自動化する2段階の学習プロセスにあります。人間がすべての正しい応答にラベル付けする必要がある従来の教師あり学習とは異なり、Constitutional AIはモデル自体を使用して学習データを生成します。

  1. 教師あり学習フェーズ: モデルはプロンプトに応答を生成し、その後、憲法原則に基づいて自身の出力を批評します。ルールにより良く合致するように応答を修正します。この洗練されたデータセットは、モデルをファインチューニングするために使用され、ガイドラインに本質的に従うように学習させます。
  2. 強化学習フェーズ: このフェーズは、しばしばAIフィードバックからの強化学習(RLAIF)と呼ばれ、人間のラベラーを置き換えます。AIは応答のペアを生成し、憲法に最もよく準拠するものを選択します。この選好データは報酬モデルをトレーニングし、その後、標準的な強化学習技術を介して望ましい行動を強化します。

コンピュータ・ビジョンとの関連性

憲法AIは、 組織によって開発された大規模言語モデル(LLM)の文脈で生まれたものである。 Anthropicなどの組織によって開発された大規模言語モデル(LLM)の文脈で生まれたものの、 その原則はコンピュータビジョン(CV)を含むより広範な機械学習タスクにおいて ますます関連性が高まっている。

  • 倫理的な画像生成: 画像を生成するための生成AIツールは、暴力的、憎悪的、または著作権で保護された画像を生成するプロンプトを拒否するように「憲法的に」トレーニングできます。これにより、モデルの重み自体が安全制約をエンコードし、有害な視覚コンテンツの作成を防ぎます。
  • 安全性が最重要となるビジョンシステム: 自動運転車において、「憲法的な」アプローチは意思決定のための階層的ルールを定義できます。例えば、「人間の安全が交通効率に優先する」というルールは、複雑な道路状況を分析する際にモデルを導き、object detectionの結果が安全性を最優先として解釈されることを保証します。

ビジョンAIにおけるポリシーチェックの実装

完全な憲法AIトレーニングには複雑なフィードバックループが伴うが、開発者は推論時に「憲法チェック」の概念を適用し、安全ポリシーに基づいて出力をフィルタリングできる。以下の例は、YOLO26を用いた detect 安全ルールを適用し、信頼性の低い検出結果をフィルタリングする手法を示しており、信頼性憲法を模倣している。

from ultralytics import YOLO

# Load the YOLO26 model (latest stable Ultralytics release)
model = YOLO("yolo26n.pt")

# Run inference on an image
results = model("https://ultralytics.com/images/bus.jpg")

# Apply a "constitutional" safety check: Only accept high-confidence detections
for result in results:
    # Filter boxes with confidence > 0.5 to ensure reliability
    safe_boxes = [box for box in result.boxes if box.conf > 0.5]

    print(f"Safety Check Passed: {len(safe_boxes)} reliable objects detected.")
    # Further processing would only use 'safe_boxes'

Constitutional AIと従来のRLHFの比較

Constitutional AIと標準的な人間のフィードバックからの強化学習(RLHF)を区別することが重要です。

  • スケーラビリティ: RLHFはモデル出力を評価するために膨大な量の人的労働を必要とし、これは高価で時間がかかります。Constitutional AIはAIエージェントによってこれを自動化し、高いスケーラビリティを実現します。
  • 透明性: RLHFでは、モデルは不透明な「報酬シグナル」(スコア)から学習するため、ある行動がなぜ好まれたのかを知ることは困難です。Constitutional AIでは、批判フェーズで使用される思考の連鎖プロンプティングにより、推論が明示的になり、特定の書かれた原則にまで遡れるようになります。
  • 一貫性: 人間の評価者は一貫性がなかったり、偏見を持っていたりする可能性があります。成文化された憲法は、AI倫理の安定した基準を提供し、アライメントプロセスにおける主観性を低減します。

アライメントの未来

モデルが 人工知能(AGI)に向けてモデルが進化するにつれて、Constitutional AIのようなロバストなアライメント戦略の重要性が増している。これらの方法は このような方法は、NIST AI Safety Instituteのような団体による新たな標準に準拠するために不可欠である。 NIST AIセーフティ・インスティテュート

Ultralytics Platformは、データガバナンスとモデル監視を管理するためのツールを提供し、責任あるAIシステムの作成を促進します。データ収集からモデルデプロイまで、AI開発のライフサイクルにこれらの倫理的考慮事項を統合することで、組織はリスクを軽減し、その技術が社会に積極的に貢献することを保証できます。

共にAIの未来を築きましょう!

未来の機械学習で、新たな一歩を踏み出しましょう。