了解可解释 AI (XAI) 如何使复杂的机器学习模型透明化。探索 SHAP 和 LIME 等关键技术,以建立对 Ultralytics YOLO26 的信任。
可解释人工智能 (XAI) 指的是一套全面的流程、工具和方法,旨在使人工智能 (AI)系统的输出对人类用户而言易于理解。随着组织越来越多地部署复杂的机器学习 (ML)模型——尤其是在深度学习 (DL)领域——这些系统通常以“黑箱”形式运作。尽管黑箱模型可以提供高度准确的预测,但其内部决策逻辑仍然不透明。XAI 旨在阐明这一过程,帮助利益相关者理解为何做出特定决策,这对于建立信任、确保安全和满足法规遵从性至关重要。
自动化决策中对透明度的需求正在推动 XAI 在各行业的应用。信任是主要因素;如果用户无法验证其背后的推理,他们就不太可能依赖 预测建模。这在错误可能导致严重后果的高风险环境中尤为重要。
存在多种技术,可使 神经网络更具透明度,这些技术通常根据其是否与模型无关(适用于任何算法)或与模型相关进行分类。
可解释人工智能在那些"为什么"与"是什么"同等重要的领域至关重要。
区分XAI与人工智能术语表中类似概念是有帮助的:
计算机视觉可解释性的基础步骤是将模型预测结果直接可视化呈现于图像之上。
尽管高级XAI技术采用热力图,但通过边界框和置信度评分可立即洞察模型检测到的内容。使用 ultralytics 带有最先进模型(例如)的包
YOLO26用户可轻松检查检测结果。
from ultralytics import YOLO
# Load a pre-trained YOLO26 model (Nano version)
model = YOLO("yolo26n.pt")
# Run inference on an image
results = model("https://ultralytics.com/images/bus.jpg")
# Visualize the results
# This displays the image with bounding boxes, labels, and confidence scores,
# acting as a basic visual explanation of the model's detection logic.
results[0].show()
这种简单的可视化作为一种健全性检查,是可解释性的一种基本形式,它证实了模型在 Object Detection 任务中关注场景中的相关对象。对于涉及数据集管理和模型 training 可视化的更高级工作流,用户可以利用 Ultralytics Platform。研究人员通常通过访问底层特征图来扩展此功能,以进行 NIST XAI Principles 中描述的更深入分析。

开启您的机器学习未来之旅