Yolo 深圳
深セン
今すぐ参加
用語集

説明可能なAI(XAI)

説明可能なAI(XAI)をご紹介します。よりスマートなAIの意思決定のために、解釈可能な洞察を活用し、信頼を構築し、説明責任を確保し、規制を遵守しましょう。

説明可能なAI(XAI)とは、以下のような一連のプロセス、ツール、方法を指す。 機械学習(ML)アルゴリズムによって作成された結果と出力を 機械学習(ML)アルゴリズム。として 人工知能(AI)システム 特に深層学習(DL)の領域では ディープラーニング(DL)の領域では、しばしば "ブラックボックス "ブラックボックス"つまり、システムは正確な予測を行うかもしれないが、その判断に至った内部ロジックは不透明である。 は不透明である。XAIはこのプロセスを明らかにし、複雑なニューラルネットワークと人間のギャップを埋めることを目的としている。 複雑なニューラルネットワークと人間の理解のギャップを埋める 理解することである。

説明可能性が重要な理由

XAIの第一の目標は、AIシステムの透明性、解釈可能性、説明責任を確保することである。これは デバッグとモデル性能の向上のために重要であるが、利害関係者との信頼関係を確立するためにも同様に重要である。 セーフティ・クリティカルな分野では、ユーザーはモデルの判断が偽りの相関関係ではなく、健全な推論に基づいていることを検証しなければならない。 を検証する必要があります。例えば NIST AIリスクマネジメントフレームワークでは 信頼できるシステムの重要な特性として説明可能性を強調している。さらに 欧州連合(EU)のAI法のような新たな規制は、高リスクのAIシステムに対して理解しやすい説明を提供することを求める法的基準を定めている。 さらに、欧州連合のAI法のような新たな規制は、リスクの高いAIシステムに対して、自動化された意思決定について理解しやすい説明を提供することを求める法的基準を定めている。

また、XAIの導入は、以下のことを維持するためにも重要な役割を果たす。 AI倫理の維持にも重要な役割を果たす。モデルが異なる特徴をどのように評価するかを可視化することで を可視化することで、開発者はアルゴリズムのdetect アルゴリズムのバイアスを検出し、軽減することができます。 AIの配備における公平性を高めることができる。以下のようなイニシアチブ DARPAの説明可能なAIプログラム などのイニシアチブは、こうした強力なツールを専門家以外でも利用できるようにする技術の研究に拍車をかけている。

一般的なXAIテクニック

説明可能性を達成するためのアプローチはいくつかあり、モデルにとらわれないか、モデルに特化しているかで分類されることが多い。 モデル固有かによって分類される。

  • SHAP (Shapley Additive exPlanations):このゲーム理論的アプローチは、特定の予測に対して各特徴に寄与値を割り当てる。 各特徴に寄与値を割り当てる。 SHAP値は特徴の重要性の統一された尺度を提供する、 どの入力がモデルの出力をシフトさせたかを正確に知ることができる。
  • LIME(Local Interpretable Model-agnostic Explanations):このテクニックは、複雑なモデルを特定の予測 を、特定の予測に対して局所的により単純なモデルで近似します。 LIMEは、入力を微調整し、出力がどのように変化するかを観察することで、個々の予測を説明するのに役立つ。 出力がどのように変化するかを観察することで、個々の予測を説明することができます。
  • 顕著性マップ:コンピュータビジョンで広く使われている サリエンシーマップは モデルの判断に最も影響を与えたピクセルを強調する。以下のような技術がある。 Grad-CAM (Gradient-weighted Class Activation Mapping)のような技法がある。 ヒートマップを生成し、元の画像に重ねる。 畳み込みニューラルネットワーク オブジェクトを識別するために「見た」場所を示す。

実際のアプリケーション

説明可能なAIは、意思決定の正当性が意思決定そのものと同じくらい重要である業界を変革している。

  1. ヘルスケアと診断医療画像解析 医療画像分析では 腫瘍などの異常を検出することで、放射線科医を支援する。XAI対応システムは単に確率を出力するだけでなく、警告のトリガーとなったX線やMRIの特定の部位を強調表示します。 X線検査やMRI検査において、アラートのトリガーとなった特定の部位を強調表示します。これにより医療従事者は これにより、医療専門家はAIの発見を専門知識と照らし合わせて検証することができ、より安全な 医療におけるAI
  2. 金融サービス銀行が信用スコアリングにAIを使用する場合、ローン申請を却下するには、以下のような規制を遵守する明確な理由が必要となる。 信用機会均等法(Equal Credit Opportunity Act)のような 信用機会均等法のような規制を遵守するためには明確な理由が必要です。XAIツールは、「高い負債比率」や「不十分なクレジットヒストリー」など、拒否を理解しやすい要因に分解することができます。 「顧客や監査人に必要な透明性を提供する。

関連用語の区別

AI用語集では、XAIを関連概念と区別するのに役立つ:

  • AIにおけるXAIと透明性:透明性とは、データソース、モデルアーキテクチャ、開発プロセスなど、システム全体のオープン性を指すより広い概念である。 アーキテクチャ、開発プロセスを含むシステム全体のオープン性を指す。XAIは特に、モデルの出力と推論を理解できるようにする方法に焦点を当てている。 XAIは特に、モデルの出力と推論を理解できるようにする手法に焦点を当てている。透明性とは 一方XAIは は、特定の入力がなぜ特定の結果をもたらしたのかを説明する。
  • XAIと解釈可能性の比較:しばしば同じ意味で使われるが、解釈可能性とは通常、モデルの構造がどの程度本質的に理解できるかを指す。 解釈可能性とは、通常、モデルの構造が(意思決定ツリーのような 意思決定ツリーのような)。 ディープニューラルネットワークのような複雑で非解釈的なモデルに適用されるポストホックメソッドを含む。 ディープニューラルネットワーク

コードの例推論結果の解釈

のようなモデルを使用する場合 YOLO11 にとって オブジェクト検出アウトプットを理解することは 説明可能性への第一歩である。その ultralytics パッケージは、検出データへの容易なアクセスを提供する。 さらなるXAI分析や可視化の基礎となる。

from ultralytics import YOLO

# Load the YOLO11 model (official pre-trained weights)
model = YOLO("yolo11n.pt")

# Run inference on an image to detect objects
results = model("https://ultralytics.com/images/bus.jpg")

# Display the annotated image to visually interpret what the model detected
# Visual inspection is a basic form of explainability for vision models.
results[0].show()

バウンディングボックスとクラスラベルを視覚化することで、ユーザーは基本的な "視力検査 "を行うことができる。 基本的な モデルの評価とモニタリングの基本的な側面である。より高度な より高度なニーズに対しては、研究者はこれらの出力を、詳細な特徴帰属のために調整されたライブラリと統合することがよくあります。

Ultralytics コミュニティに参加する

AIの未来を共に切り開きましょう。グローバルなイノベーターと繋がり、協力し、成長を。

今すぐ参加