説明可能なAI(XAI)をご紹介します。よりスマートなAIの意思決定のために、解釈可能な洞察を活用し、信頼を構築し、説明責任を確保し、規制を遵守しましょう。
説明可能なAI(XAI)とは、以下のような一連のプロセス、ツール、方法を指す。 機械学習(ML)アルゴリズムによって作成された結果と出力を 機械学習(ML)アルゴリズム。として 人工知能(AI)システム 特に深層学習(DL)の領域では ディープラーニング(DL)の領域では、しばしば "ブラックボックス "ブラックボックス"つまり、システムは正確な予測を行うかもしれないが、その判断に至った内部ロジックは不透明である。 は不透明である。XAIはこのプロセスを明らかにし、複雑なニューラルネットワークと人間のギャップを埋めることを目的としている。 複雑なニューラルネットワークと人間の理解のギャップを埋める 理解することである。
XAIの第一の目標は、AIシステムの透明性、解釈可能性、説明責任を確保することである。これは デバッグとモデル性能の向上のために重要であるが、利害関係者との信頼関係を確立するためにも同様に重要である。 セーフティ・クリティカルな分野では、ユーザーはモデルの判断が偽りの相関関係ではなく、健全な推論に基づいていることを検証しなければならない。 を検証する必要があります。例えば NIST AIリスクマネジメントフレームワークでは 信頼できるシステムの重要な特性として説明可能性を強調している。さらに 欧州連合(EU)のAI法のような新たな規制は、高リスクのAIシステムに対して理解しやすい説明を提供することを求める法的基準を定めている。 さらに、欧州連合のAI法のような新たな規制は、リスクの高いAIシステムに対して、自動化された意思決定について理解しやすい説明を提供することを求める法的基準を定めている。
また、XAIの導入は、以下のことを維持するためにも重要な役割を果たす。 AI倫理の維持にも重要な役割を果たす。モデルが異なる特徴をどのように評価するかを可視化することで を可視化することで、開発者はアルゴリズムのdetect アルゴリズムのバイアスを検出し、軽減することができます。 AIの配備における公平性を高めることができる。以下のようなイニシアチブ DARPAの説明可能なAIプログラム などのイニシアチブは、こうした強力なツールを専門家以外でも利用できるようにする技術の研究に拍車をかけている。
説明可能性を達成するためのアプローチはいくつかあり、モデルにとらわれないか、モデルに特化しているかで分類されることが多い。 モデル固有かによって分類される。
説明可能なAIは、意思決定の正当性が意思決定そのものと同じくらい重要である業界を変革している。
AI用語集では、XAIを関連概念と区別するのに役立つ:
のようなモデルを使用する場合 YOLO11 にとって
オブジェクト検出アウトプットを理解することは
説明可能性への第一歩である。その ultralytics パッケージは、検出データへの容易なアクセスを提供する。
さらなるXAI分析や可視化の基礎となる。
from ultralytics import YOLO
# Load the YOLO11 model (official pre-trained weights)
model = YOLO("yolo11n.pt")
# Run inference on an image to detect objects
results = model("https://ultralytics.com/images/bus.jpg")
# Display the annotated image to visually interpret what the model detected
# Visual inspection is a basic form of explainability for vision models.
results[0].show()
バウンディングボックスとクラスラベルを視覚化することで、ユーザーは基本的な "視力検査 "を行うことができる。 基本的な モデルの評価とモニタリングの基本的な側面である。より高度な より高度なニーズに対しては、研究者はこれらの出力を、詳細な特徴帰属のために調整されたライブラリと統合することがよくあります。


