Yolo 深圳
深セン
今すぐ参加
用語集

AIの偏り

倫理的なAI開発のために、AIシステムのバイアスを特定、軽減、防止するための戦略、ツール、および実世界の例を発見してください。

AIにおけるバイアスとは、人工知能(AI)システムに組み込まれた体系的なエラーや偏見のことである。 人工知能(AI)システムに組み込まれた組織的なエラーや偏見のこと。 不公平、不平等、差別的な結果をもたらす。ランダムなエラーとは異なり、このようなバイアスは一貫性があり、反復可能である。 このようなバイアスは、ランダムなエラーとは異なり、一貫性があり反復可能であり、多くの場合、ある任意のユーザーグループやデータ入力を他のグループよりも優遇する。組織がますます 機械学習(ML)を重要な バイアスを認識し対処することは、AI倫理の中心的な柱となっている。 AI倫理このような問題の軽減に失敗すると、次のようなことが起こり得ます。 歪んだ結果につながる可能性がある。 ヘルスケア診断におけるAIから、自動化された 金融融資に至るまで、さまざまなアプリケーションで歪んだ結果をもたらす可能性がある。

AIシステムにおけるバイアスの原因

バイアスは開発ライフサイクルの複数の段階でAIシステムに侵入する可能性がある。これらの起源を理解することは ロバストで公平なモデルを作成するために不可欠である。

  • データセット・バイアスこれは最も一般的なものである 最も一般的な原因である。 モデルの学習に使われる学習データが 実世界の母集団を正確に表していない場合に発生する。例えば 画像分類モデルが 例えば、画像分類モデルが主に欧米諸国の画像で学習された場合、他の地域の物体やシーンを認識するのに苦労することがあります。 この現象はしばしば選択バイアスと関連している。
  • アルゴリズム・バイアス時には アルゴリズム自体の数学的設計が、既存の格差を増幅させることがある。ある種の 最適化アルゴリズムは 全体的な精度を優先させ マイノリティを代表する「外れ値」を効果的に無視する。
  • 認知的バイアスと人的バイアス:データラベリングや特徴選択時にエンジニアが行う主観的な選択。 データラベリングや特徴選択時にエンジニアが行う主観的な選択は 不注意に人間の偏見をシステムに取り込んでしまう。

実世界での応用と影響

AIの偏見がもたらす結果は、さまざまな導入技術で観察することができる。

  1. 顔認識の格差:市販の 顔認識システムは歴史的に 女性や有色人種を識別する際に高いエラー率を示してきた。次のような研究プロジェクトがある。 ジェンダー・シェード 代表的でないデータセットが、特定の人口統計のパフォーマンスを低下させることを浮き彫りにし、データプライバシーと包括性の基準を改善するよう求めている。 データ・プライバシーと包括性の基準
  2. 犯罪予知と再犯防止:犯罪者の再犯を予測するために使用されるアルゴリズムは、人種的偏見を示していると批判されている。 人種的偏見があるとして批判されている。例えば COMPASに関するプロパブリカの分析 の分析などの調査により、一部のモデルはマイノリティの被告人を高リスクと誤認する可能性が高いことが明らかになった。 社会的不平等を反映した過去の逮捕データに頼ることの危険性を示している。

緩和戦略とツール

バイアスに対処するには、次のような積極的なアプローチが必要だ。 AIにおける公平性。開発者はいくつかの 技術を採用することができる。

  • データの増強:モデルの汎化を向上させる効果的な方法のひとつが データ増強である。人為的に既存のデータ 画像の反転、回転、カラーバランスの調整など、既存のデータポイントのバリエーションを人工的に生成することで、開発者は次のようなモデルを公開することができる。 のようなモデルを公開することができる。 Ultralytics YOLO11のようなモデルを のようなモデルをより広範な入力にさらすことができる。
  • アルゴリズムの監査:様々なベンチマークに対して定期的にモデルをテストすることは非常に重要である。以下のようなツールがある。 IBMのAI Fairness 360や Microsoft Fairlearnのようツールは、異なるサブグループ間でモデルのパフォーマンスを評価するための指標を提供する。 を提供します。
  • 透明性採用 説明可能なAI(XAI)を採用することで、利害関係者はモデルが特定の予測を行う理由を理解することができる。 ステークホルダーは、モデルが特定の予測を行う理由を理解し、差別的なロジックを発見しやすくなる。 ロジックを発見しやすくなる。

コード例:補強による汎化の改善

以下のPython スニペットは、学習中にデータ拡張を適用する方法を示しています。 ultralytics パッケージを使用する。これにより、モデルが特定の変化に対して不変になり、特定の視覚的特徴へのオーバーフィッティングを減らすことができる。 特定の視覚的特徴へのオーバーフィッティングを減らすことができる。

from ultralytics import YOLO

# Load the YOLO11 model
model = YOLO("yolo11n.pt")

# Train with data augmentation enabled
# 'fliplr' (flip left-right) and 'hsv_h' (hue adjustment) increase data diversity
results = model.train(
    data="coco8.yaml",
    epochs=5,
    fliplr=0.5,  # Apply horizontal flip with 50% probability
    hsv_h=0.015,  # Adjust image hue fraction
)

関連用語の区別

AIにおけるバイアス」を、関連性の高い用語集と区別することは有益である:

  • AIにおけるバイアス vs.アルゴリズムにおけるバイアス 「AIにおけるバイアス」とは、不公平のすべての原因(データ、人間、システム)を包括する用語である。 「アルゴリズム的バイアス」とは、特にモデルの計算手順や目的関数によってもたらされるバイアスを指す。 目的関数によってもたらされるバイアスを指す。
  • AIにおけるバイアス vs.データセット・バイアス 「データセット・バイアス」とは、学習材料の収集と管理に根ざしたAIのバイアスの特定の原因である。 である。完全に公正なアルゴリズムでも、偏ったデータセットから学習すれば、「AIにおけるバイアス」を示す可能性がある。

NISTのAIリスク管理フレームワークのようなフレームワークを遵守することで NIST AIリスクマネジメントフレームワークのようなフレームワークを遵守することで、開発者は 開発者は 責任あるAI システムの構築に取り組むことができる。

Ultralytics コミュニティに参加する

AIの未来を共に切り開きましょう。グローバルなイノベーターと繋がり、協力し、成長を。

今すぐ参加