Yolo 비전 선전
선전
지금 참여하기
용어집

설명 가능한 AI(XAI)

설명 가능한 AI(XAI)를 발견하십시오: 더 스마트한 AI 결정을 위해 해석 가능한 통찰력을 통해 신뢰를 구축하고, 책임감을 보장하고, 규정을 준수하십시오.

Explainable AI (XAI) refers to a comprehensive set of processes, tools, and methods designed to make the outputs of Artificial Intelligence (AI) systems understandable to human users. As organizations increasingly deploy complex Machine Learning (ML) models—particularly in the realm of Deep Learning (DL)—these systems often function as "black boxes." While a black box model may provide highly accurate predictions, its internal decision-making logic remains opaque. XAI aims to illuminate this process, helping stakeholders comprehend why a specific decision was made, which is crucial for fostering trust, ensuring safety, and meeting regulatory compliance.

The Importance Of Explainability

The demand for transparency in automated decision-making is driving the adoption of XAI across industries. Trust is a primary factor; users are less likely to rely on Predictive Modeling if they cannot verify the reasoning behind it. This is particularly relevant in high-stakes environments where errors can have severe consequences.

  • 규제 준수: 유럽연합 인공지능법(EU AI Act ) 및 일반 데이터 보호 규정(GDPR)과 같은 새로운 법적 프레임워크는 고위험 인공지능 시스템이 의사 결정에 대해 해석 가능한 설명을 제공하도록 점점 더 의무화하고 있습니다.
  • Ethical AI: Implementing XAI is a cornerstone of AI Ethics. By revealing which features influence a model's output, developers can identify and mitigate Algorithmic Bias, ensuring that the system operates equitably across different demographics.
  • Model Debugging: For engineers, explainability is essential for Model Monitoring. It helps in diagnosing why a model might be failing on specific edge cases or suffering from Data Drift, allowing for more targeted retraining.

Common Techniques In XAI

Various techniques exist to make Neural Networks more transparent, often categorized by whether they are model-agnostic (applicable to any algorithm) or model-specific.

  • SHAP (SHapley Additive exPlanations): 협력 게임 이론에 기반하여, SHAP 값은 주어진 예측에 대해 각 특징에 기여도 점수를 할당하여, 각 입력값이 기준선 결과로부터 결과를 얼마나 변화시켰는지 설명합니다.
  • LIME(Local Interpretable Model-agnostic Explanations): 이 방법은 특정 예측값 주변에서 복잡한 모델을 선형 모델과 같은 단순하고 해석 가능한 모델로 국소적으로 근사화합니다. LIME은 입력값을 변동시키고 출력 변화를 관찰함으로써 개별 사례를 설명하는 데 도움을 줍니다.
  • 살리언시 맵: 컴퓨터 비전(CV) 분야에서 널리 사용되는 이 시각화 기법은 모델의 판정에 가장 큰 영향을 준 이미지 내 픽셀을 강조 표시합니다. Grad-CAM과 같은 방법은 모델이 객체를 식별하기 위해 '주목한' 위치를 보여주는 히트맵을 생성합니다.

실제 애플리케이션

설명 가능한 인공지능은 '무엇'만큼이나 '왜'가 중요한 분야에서 핵심적이다.

  1. Healthcare Diagnostics: In Medical Image Analysis, it is insufficient for an AI to simply flag an X-ray as abnormal. An XAI-enabled system highlights the specific region of the lung or bone that triggered the alert. This visual evidence allows radiologists to validate the model's findings, facilitating safer AI In Healthcare adoption.
  2. Financial Services: When banks use algorithms for credit scoring, rejecting a loan application requires a clear justification to comply with laws like the Equal Credit Opportunity Act. XAI tools can decompose a denial into understandable factors—such as "debt-to-income ratio too high"—promoting Fairness In AI and allowing applicants to address the specific issues.

관련 용어 구분하기

XAI를 AI 용어집의 유사 개념과 구분하는 것이 유용합니다:

  • XAI vs. Transparency In AI: Transparency is a broader concept encompassing the openness of the entire system, including data sources and development processes. XAI specifically focuses on the techniques used to make the inference rationale understandable. Transparency might involve publishing Model Weights, while XAI explains why those weights produced a specific result.
  • XAI 대 해석 가능성: 해석 가능성은 일반적으로 의사 결정 트리나 선형 회귀와 같이 설계상 본질적으로 이해 가능한 모델을 가리킵니다. XAI는 일반적으로 심층 컨볼루션 신경망(CNN)과 같은 복잡하고 해석 불가능한 모델에 사후 적용되는 방법을 포함합니다.

Code Example: Visualizing Inference For Explanation

컴퓨터 비전 설명 가능성의 핵심 단계는 모델의 예측을 이미지에 직접 시각화하는 것이다. 고급 XAI는 히트맵을 사용하지만, 바운딩 박스와 신뢰도 점수를 확인하면 모델이 감지한 내용을 즉시 파악할 수 있다. ultralytics package with state-of-the-art models like YOLO26사용자는 탐지 결과를 쉽게 확인할 수 있습니다.

from ultralytics import YOLO

# Load a pre-trained YOLO26 model (Nano version)
model = YOLO("yolo26n.pt")

# Run inference on an image
results = model("https://ultralytics.com/images/bus.jpg")

# Visualize the results
# This displays the image with bounding boxes, labels, and confidence scores,
# acting as a basic visual explanation of the model's detection logic.
results[0].show()

This simple visualization acts as a sanity check, a basic form of explainability that confirms the model is attending to relevant objects in the scene during Object Detection tasks. For more advanced workflows involving dataset management and model training visualization, users can leverage the Ultralytics Platform. Researchers often extend this by accessing the underlying feature maps for deeper analysis described in NIST XAI Principles.

Ultralytics 커뮤니티 가입

AI의 미래에 동참하세요. 글로벌 혁신가들과 연결하고, 협력하고, 성장하세요.

지금 참여하기