术语表

可解释的人工智能(XAI)

探索可解释的人工智能(XAI):利用可解释的洞察力,做出更明智的人工智能决策,从而建立信任、确保问责制并满足法规要求。

可解释的人工智能(XAI)是一套流程和方法,能让人类用户理解并信任机器学习模型做出的决策。随着人工智能(AI)变得越来越先进,许多模型像 "黑盒子 "一样运行,很难理解其内部逻辑。XAI 旨在打开这个黑箱,为模型输出提供清晰的解释,并促进透明度和问责制。美国国防部高级研究计划局(DARPA)的 "可解释的人工智能"(Explainable AI)计划等举措极大地推动了 XAI 的发展。

可解释的人工智能为何重要?

出于实用和道德方面的考虑,对 XAI 的需求横跨各个领域。建立信任至关重要;如果用户和利益相关者能够理解人工智能系统是如何得出结论的,他们就更有可能采用和依赖人工智能系统。这在人工智能在医疗保健自动驾驶汽车等高风险领域尤为重要。可解释性对于调试和完善模型也至关重要,因为它有助于开发人员识别缺陷和意外行为。此外,XAI 还是负责任的人工智能开发的基石,有助于发现和减少算法偏见,确保人工智能的公平性。随着欧盟人工智能法》等法规的不断增加,为人工智能驱动的决策提供解释正在成为一项法律要求。

XAI 在现实世界中的应用

  1. 医学图像分析卷积神经网络(CNN)等人工智能模型分析医学扫描图像以检测疾病时,XAI 技术可创建热图。这种数据可视化可突出显示模型认为最能反映某种疾病(如脑部扫描数据集上的肿瘤)的特定图像区域。这样,放射科医生就可以根据自己的专业知识来验证模型的发现,如北美放射学会(RSNA)等组织所述。
  2. 金融服务和信用评分:在金融领域,人工智能模型用于批准或拒绝贷款申请。如果申请被拒,法规通常会要求提供明确的理由。SHAP(SHapley Additive exPlanations)LIME(Local Interpretable Model-agnostic Explanations)等 XAI 方法可以识别导致做出决定的关键因素(如信用评分低、债务收入比高)。这不仅能确保监管合规,还能为客户提供透明度,正如世界经济论坛等机构所讨论的那样。

与相关术语的区别

  • 人工智能的透明度虽然两者密切相关,但透明度是一个更广泛的概念。它指的是深入了解人工智能系统的数据、算法和模型部署流程。XAI 是透明度的一个关键组成部分,它提供了特定的工具和技术,使模型的单个预测变得易于理解。简而言之,透明度是指整个系统的清晰度,而 XAI 则侧重于解释其具体输出。
  • 人工智能伦理这是一个广泛的领域,涉及人工智能开发和使用应遵循的道德原则和价值观。XAI 是落实关键道德原则的实用机制。通过使模型具有可解释性,开发人员和审计人员可以更好地评估模型的公平性、责任性和潜在危害,从而使 XAI 成为构建伦理健全的人工智能的重要工具。

挑战和考虑因素

实现有意义的可解释性可能很复杂。模型性能与可解释性之间往往存在权衡;高度复杂的深度学习模型可能更准确,但却更难解释,"视觉模型的历史"中详细介绍了这一挑战。此外,公开详细的模型逻辑可能会引起知识产权方面的担忧,或为恶意攻击制造漏洞。人工智能合作伙伴关系等组织和ACM FAccT等学术会议致力于应对这些伦理和实际挑战。

在 Ultralytics,我们通过各种工具和资源来帮助用户理解模型。Ultralytics HUB中的可视化功能和Ultralytics 文档中的详细指南(如YOLO 性能指标的解释)可以帮助用户评估和解释Ultralytics YOLOv8 等模型的行为。这样,开发人员就能在从制造业农业的各个领域构建更可靠、更值得信赖的应用程序。

加入 Ultralytics 社区

加入人工智能的未来。与全球创新者联系、合作和成长

立即加入
链接复制到剪贴板