설명 가능한 AI(XAI)를 발견하십시오: 더 스마트한 AI 결정을 위해 해석 가능한 통찰력을 통해 신뢰를 구축하고, 책임감을 보장하고, 규정을 준수하십시오.
설명 가능한 AI(XAI)는 인간 사용자가 생성된 결과와 결과물을 이해하고 신뢰할 수 있도록 하는 일련의 프로세스, 도구 및 방법을 말합니다. 이해하고 신뢰할 수 있는 머신러닝(ML) 알고리즘. As 인공 지능(AI) 시스템 특히 딥 러닝(DL) 영역에서 인공지능(AI) 시스템이 딥 러닝(DL)의 영역에서 인공지능 시스템은 종종 "블랙박스"로 작동하는 경우가 많습니다. 즉, 시스템이 정확한 예측을 내릴 수는 있지만 그 결정에 도달하기 위해 사용된 내부 논리가 내부 로직이 불투명하거나 사용자에게 숨겨져 있다는 뜻입니다. XAI는 이 과정을 조명하여 복잡한 신경망과 인간 사이의 복잡한 신경망과 인간의 간극을 좁히는 것을 목표로 합니다.
XAI의 주요 목표는 AI 시스템의 투명성, 해석 가능성, 책임성을 보장하는 것입니다. 이는 모델 성능을 디버깅하고 개선하는 데 모델 성능을 디버깅하고 개선하는 데도 중요하지만, 이해관계자와의 신뢰를 구축하는 데도 똑같이 중요합니다. 안전이 중요한 분야에서 사용자는 모델의 결정이 허위 상관관계가 아닌 가짜 상관관계. 예를 들어 NIST AI 위험 관리 프레임워크는 다음을 강조합니다. 설명 가능성을 신뢰할 수 있는 시스템의 핵심 특성으로 강조합니다. 또한, 다음과 같은 새로운 규정이 등장하고 있습니다. 유럽연합의 AI 법과 같은 새로운 규정은 고위험 AI 시스템에 대해 고위험 AI 시스템은 자동화된 결정에 대해 이해할 수 있는 설명을 제공해야 합니다.
XAI를 구현하는 것은 또한 다음을 유지하는 데 중요한 역할을 합니다. AI 윤리. 모델의 다양한 기능에 대한 가중치를 시각화함으로써 개발자는 알고리즘 편향성을 detect 완화하여 알고리즘 편향을 감지하고 완화하여 AI 배포 의 공정성을 높일 수 있습니다. 다음과 같은 이니셔티브 DARPA의 설명 가능한 AI 프로그램 와 같은 이니셔티브는 이러한 강력한 도구를 비전문가도 쉽게 사용할 수 있도록 하는 기술에 대한 상당한 연구에 박차를 가했습니다.
설명 가능성을 달성하기 위한 몇 가지 접근 방식이 있으며, 종종 모델에 구애받지 않는지 또는 모델에 따라 모델별 접근 방식입니다.
설명 가능한 AI는 의사 결정의 정당성이 결정 자체만큼이나 중요한 산업을 변화시키고 있습니다.
AI 용어집에서 XAI를 관련 개념과 구별하는 것이 도움이 됩니다:
다음과 같은 모델을 사용하는 경우 YOLO11 에 대한
물체 감지결과물을 이해하는 것이
설명 가능성을 향한 첫 번째 단계입니다. 그리고 ultralytics 패키지는 탐지 데이터에 쉽게 액세스할 수 있는 기능을 제공합니다.
추가 XAI 분석 또는 시각화를 위한 기반이 됩니다.
from ultralytics import YOLO
# Load the YOLO11 model (official pre-trained weights)
model = YOLO("yolo11n.pt")
# Run inference on an image to detect objects
results = model("https://ultralytics.com/images/bus.jpg")
# Display the annotated image to visually interpret what the model detected
# Visual inspection is a basic form of explainability for vision models.
results[0].show()
경계 상자와 클래스 레이블을 시각화함으로써 사용자는 기본적인 '눈 테스트' 검증을 수행할 수 있습니다. 모델 평가 및 모니터링의 모델 평가 및 모니터링의 기본 요소입니다. 더 많은 연구자들은 이러한 결과물을 세부적인 특징 어트리뷰션에 맞게 조정된 라이브러리와 통합하는 경우가 많습니다.

