説明可能なAI(XAI)が複雑な機械学習モデルを透明化する仕組みを学びましょう。SHAPやLIMEといった主要な手法を発見し、Ultralytics への信頼を構築します。
説明可能なAI(XAI)とは、人工知能(AI)システムの出力を人間のユーザーが理解できるように設計された包括的なプロセス、ツール、手法の集合を指す。組織が複雑な機械学習(ML)モデル―特に深層学習(DL)の領域において―をますます導入するにつれ、これらのシステムはしばしば「ブラックボックス」として機能する。ブラックボックスモデルは高い精度で予測を提供できる一方で、その内部の意思決定ロジックは不透明である。 機械学習(ML)モデル、特に深層学習(DL)の領域において、これらのシステムはしばしば「ブラックボックス」として機能します。ブラックボックスモデルは極めて正確な予測を提供する可能性がありますが、その内部の意思決定ロジックは不透明なままです。XAIはこのプロセスを明らかにし、特定の決定がなされた理由を関係者が理解することを支援することを目的としており、信頼の醸成、安全性の確保、規制順守の達成に不可欠です。
自動化された意思決定における透明性への要求が、業界横断的なXAI(説明可能なAI)の採用を推進している。信頼性が主要な要因であり、ユーザーはその背後にある推論を検証できない場合、予測モデリングに依存する可能性が低くなる。これは、誤りが深刻な結果を招く可能性のあるハイリスク環境において特に重要である。
ニューラルネットワークの透明性を高める様々な手法が存在し、 それらはモデル非依存(あらゆるアルゴリズムに適用可能)かモデル固有かによって 分類されることが多い。
説明可能なAIは、「なぜ」が「何」と同じくらい重要な分野において極めて重要である。
XAIをAI用語集の類似概念と区別することは有益である:
コンピュータビジョンにおける説明可能性の根本的なステップは、モデルの予測結果を画像上に直接可視化することである。
高度なXAIではヒートマップが用いられる一方、境界ボックスと信頼度スコアを確認することで、モデルが何を検出したかについて即座に洞察が得られる。 ultralytics 最先端のモデルを備えたパッケージ
YOLO26ユーザーは検出結果を簡単に確認できます。
from ultralytics import YOLO
# Load a pre-trained YOLO26 model (Nano version)
model = YOLO("yolo26n.pt")
# Run inference on an image
results = model("https://ultralytics.com/images/bus.jpg")
# Visualize the results
# This displays the image with bounding boxes, labels, and confidence scores,
# acting as a basic visual explanation of the model's detection logic.
results[0].show()
このシンプルな可視化は健全性チェックとして機能し、物体検出タスク中にモデルがシーン内の関連オブジェクトに注意を向けていることを確認する基本的な説明可能性の形です。データセット管理やモデルトレーニングの可視化を含むより高度なワークフローについては、ユーザーUltralytics を活用できます。研究者はしばしばこれを拡張し、NIST XAI原則で説明されているより深い分析のために基盤となる特徴マップにアクセスします。