AIの偏り
倫理的なAI開発のために、AIシステムのバイアスを特定、軽減、防止するための戦略、ツール、および実世界の例を発見してください。
AIにおけるバイアスとは、人工知能(AI)システムの出力における体系的なエラーまたは偏見を指します。これらのバイアスは、不公平、不平等、または差別的な結果につながる可能性があり、特定のグループまたは集団に不利益をもたらすことがよくあります。AIシステムがヘルスケアや金融などの重要な分野に統合されるにつれて、バイアスを理解し軽減することは、責任あるAI開発における中心的な課題となっています。バイアスは、時折発生するランダムなエラーではなく、データまたはアルゴリズムの根本的な欠陥を反映した、偏った結果の反復可能なパターンです。
AIバイアスの発生源
AIの偏りは、モデル開発ライフサイクル全体にわたる複数のソースから発生する可能性があります。最も一般的なソースは次のとおりです。
- データセットのバイアス: これは、AIバイアスの最も一般的な原因です。トレーニングデータが現実世界または対象集団を代表していない場合に発生します。たとえば、男性優位の業界からの過去のデータに基づいて主にトレーニングされた採用ツール用のデータセットは、男性候補者を優先するように学習する可能性があります。これは、サンプリングバイアス(データがランダムに収集されない)、選択バイアス(データが環境を代表していない)、または測定バイアス(一貫性のないデータラベリング)として現れる可能性があります。バランスの取れた多様なデータセットを作成することが、重要な最初のステップです。
- アルゴリズムバイアス: このバイアスは、AIアルゴリズム自体から生じます。一部のアルゴリズムは、データに存在する小さなバイアスを本質的に増幅したり、その設計が特定の特徴を他の特徴よりも優先して、不公平な結果を生み出す可能性があります。たとえば、損失関数の選択は、モデルが異なるサブグループのエラーをどのようにペナルティするかに影響を与える可能性があります。
- 人的バイアス: AIシステムの開発者、データアノテーター、およびユーザーは、意図せずに自身の認知的バイアスをAIモデルに導入する可能性があります。これらの個人的および社会的なバイアスは、問題の構成方法、データの収集およびアノテーション方法、およびモデルの結果の解釈方法に影響を与える可能性があります。
実世界の例
- 顔認識技術: 多くの商用顔認識システムは、歴史的に、過小評価されているデモグラフィックグループ、特に女性や有色人種からの個人を識別する際に、より高いエラー率を示してきました。NISTによる研究は、これらの格差を実証しており、これは多くの場合、白人男性の顔を主に特徴とするトレーニングデータセットに起因します。
- 自動採用ツール: よく知られている例は、Amazonが開発した実験的な採用ツールで、「女性の」という単語を含む履歴書を減点し、女子大学の卒業生を格下げすることが判明しました。このモデルは、過去10年間に提出された採用データからこれらの偏りを学習しましたが、これはテクノロジー業界全体の男性優位を反映していました。Amazonは最終的にプロジェクトを中止しました。
AIのバイアスと関連用語
AIバイアスを関連概念と区別することが重要です。
- アルゴリズムバイアス対AIバイアス: アルゴリズムバイアスは、モデルのアーキテクチャまたは数式に起因するAIバイアスの特定のタイプです。AIバイアスは、データと人的介入からのバイアスも含む、より広範な包括的な用語です。
- データセットバイアス vs. AIバイアス: データセットバイアスは、AIバイアスの主な原因です。設計上完全に公平なアルゴリズムでも、不均衡または偏ったデータでトレーニングされた場合、偏った結果を生成する可能性があります。
- AIにおける公平性 vs. AIバイアス: AIにおける公平性は、AIバイアスに対処することに特化した分野です。バイアスは問題ですが、公平性は、公平な結果を定義、測定、促進するために使用される原則、指標、および技術を含みます。
AIの偏りへの対処
AIの偏りを軽減するには、AI開発ライフサイクル全体を通して多面的なアプローチが必要です。
Ultralytics HUBのようなプラットフォームは、慎重なデータセット管理を可能にし、カスタムモデルのトレーニングを容易にし、Ultralytics YOLOモデルのパフォーマンスの監視を可能にすることで、より公平なAIシステムの開発をサポートするツールを提供します。ACM FAccT会議のようなフォーラムでよく議論される、公平性の原則の認識を高め、組み込むことは、社会に公平に利益をもたらすテクノロジーを作成するために重要です。