了解可解释人工智能(XAI)如何让复杂的机器学习模型变得透明。探索SHAP和LIME等关键技术,以增强Ultralytics 信任。
可解释人工智能(XAI)指一套旨在使人工智能(AI)系统输出结果可被人类用户理解的综合性流程、工具及方法体系。随着组织机构日益部署复杂的机器学习(ML)模型——尤其在深度学习(DL)领域——这些系统往往成为"黑箱"。尽管黑箱模型可能提供高度精确的预测,但其内部决策逻辑难以被人类理解。 机器学习(ML)模型——尤其在深度学习(DL)领域——这些系统常被视为"黑箱"。尽管黑箱模型可能提供高度精确的预测,其内部决策逻辑却始终不透明。XAI旨在揭示这一过程,帮助利益相关者理解特定决策的依据,这对建立信任、保障安全及满足合规要求至关重要。
对自动化决策透明度的要求正推动各行业采用可解释人工智能(XAI)。信任是关键因素——若无法验证预测建模背后的推理过程,用户便难以信赖该技术。在高风险环境中,这种需求尤为迫切,因决策失误可能引发严重后果。
为使神经网络更具透明度,存在多种技术手段,这些手段通常根据其是否具有模型无关性(适用于任何算法)或模型特异性进行分类。
可解释人工智能在那些"为什么"与"是什么"同等重要的领域至关重要。
区分XAI与人工智能术语表中类似概念是有帮助的:
计算机视觉可解释性的基础步骤是将模型预测结果直接可视化呈现于图像之上。
尽管高级XAI技术采用热力图,但通过边界框和置信度评分可立即洞察模型检测到的内容。使用 ultralytics 包含尖端模型的软件包,例如
YOLO26用户可轻松检查检测结果。
from ultralytics import YOLO
# Load a pre-trained YOLO26 model (Nano version)
model = YOLO("yolo26n.pt")
# Run inference on an image
results = model("https://ultralytics.com/images/bus.jpg")
# Visualize the results
# This displays the image with bounding boxes, labels, and confidence scores,
# acting as a basic visual explanation of the model's detection logic.
results[0].show()
这种简单的可视化效果可作为合理性检查,作为基础可解释性形式,用于确认模型在目标检测任务中关注场景中的相关对象。对于涉及数据集管理和模型训练可视化的更高级工作流程,用户可借助Ultralytics 。研究人员常通过访问底层特征图进行更深入的分析,该方法在NIST可解释人工智能原则中有所阐述。