YOLO Vision 2025にご期待ください!
2025年9月25日
10:00 — 18:00(英国夏時間)
ハイブリッドイベント
Yolo Vision 2024
用語集

憲法AI

憲法AIが、モデルを事前に定義された原則と人間の価値観に合わせることによって、倫理的で安全かつ偏りのないAI出力をどのように保証するかをご覧ください。

Constitutional AI(CAI)は、Anthropicによって開発されたAIモデル、特に大規模言語モデル(LLM)を、特定の規則または原則(「憲法」として知られる)に沿ってトレーニングする方法です。CAIの主な目標は、広範な人間のフィードバックを必要とせずに、AIシステムを有用、無害、かつより制御可能にすることです。人間が有害な出力を常にラベル付けする代わりに、AIは憲法の指針となる原則に基づいて、自身の応答を批判し、修正することを学習します。このアプローチは、有害なコンテンツの生成を防ぎ、アルゴリズムバイアスを軽減するなど、AI倫理における主要な課題に対処するのに役立ちます。

憲法AIの仕組み

CAIトレーニングプロセスは通常、主に2つのフェーズで構成されます。

  1. 教師あり学習フェーズ: 最初は、基盤モデルに応答を生成するように促します。次に、同じモデルに、憲法に基づいて自身への応答を批判させ、その原則により適合するように書き直させます。これにより、改善された、憲法に沿った例の新しいデータセットが作成されます。この自己批判メカニズムは、単純なルールのリストや、国連人権宣言のような複雑なソースから引き出すことができる憲法によって導かれます。
  2. 強化学習フェーズ: 次に、強化学習(RL)を使用してモデルを微調整します。この段階では、AIは応答のペアを生成し、(最初のフェーズからの自己批判データで訓練された)preferenceモデルが、憲法に最もよく準拠するものを選択します。このプロセスは、AIにその中核原則と一致する出力を本質的に好むように教えます。

CAIの重要な現実世界の例は、AnthropicのAIアシスタントであるClaudeでの実装です。その憲法は、有害な指示を生成したり、違法行為に関与したり、有害な方法でコミュニケーションしたりすることを避け、常に役立つように指示しています。もう1つのアプリケーションは、自動コンテンツモデレーションです。ここでは、CAI駆動のモデルを使用して、倫理的ガイドラインの事前定義されたセットに従って、オンラインでヘイトスピーチや誤った情報を特定してフラグを立てることができます。

Constitutional AIと関連概念

CAIを類似の用語と区別することが重要です。

  • 人間のフィードバックによる強化学習(RLHF): RLHFは、人間がフィードバックを提供し、AIが生成した応答をランク付けすることに依存しており、時間と手間がかかり、規模を拡大することが困難です。CAIは、人間のフィードバックループをAI駆動のフィードバックループに置き換え、モデルの憲章がフィードバックを導きます。これにより、アライメントプロセスがよりスケーラブルで一貫性のあるものになります。
  • AI倫理: これは、責任あるAIを構築するための倫理的原則と技術的な問題に関する広範な分野です。Constitutional AIは、明示的な倫理規則をモデルのトレーニングプロセスに直接組み込むことで、AI倫理を実装するための実践的なフレームワークと見なすことができます。

アプリケーションと将来の可能性

現在、Constitutional AIは主に、対話生成やテキスト要約などのタスクのためにLLMに適用されています。ただし、その基本原則は、コンピュータビジョン(CV)を含む他のAIドメインにも拡張できる可能性があります。例えば:

効果的な憲法の開発と改良、およびAIが多様な状況下で忠実に憲法を遵守することを保証することは、Google AIAI Safety Instituteなどの組織内で活発な研究分野となっています。Ultralytics HUBのようなツールは、さまざまなAIモデルのトレーニングとデプロイを促進し、憲法AIと同様の原則を組み込むことは、責任あるモデルのデプロイを確実にするためにますます重要になります。

Ultralyticsコミュニティに参加しませんか?

AIの未来を共に切り開きましょう。グローバルなイノベーターと繋がり、協力し、成長を。

今すぐ参加
クリップボードにコピーしました