Yolo 비전 선전
선전
지금 참여하기
용어집

설명 가능한 AI(XAI)

설명 가능한 인공지능(XAI)이 복잡한 머신러닝 모델을 투명하게 만드는 방법을 알아보세요. SHAP 및 LIME과 같은 핵심 기법을 통해 Ultralytics 대한 신뢰를 구축하는 방법을 발견하세요.

설명 가능한 인공지능(XAI)은 인공지능(AI) 시스템의 출력을 인간 사용자가 이해할 수 있도록 설계된 포괄적인 프로세스, 도구 및 방법론을 의미합니다. 조직이 복잡한 기계 학습(ML ) 모델—특히 딥 러닝(DL) 영역에서—을 점점 더 많이 도입함에 따라, 이러한 시스템은 종종 "블랙박스"로 기능합니다. 블랙박스 모델은 매우 정확한 예측을 제공할 수 있지만, 그 내부 의사 결정 논리는 불투명합니다. 기계 학습(ML) 모델, 특히 딥 러닝(DL)영역에서 이러한 시스템은 종종 "블랙박스"처럼 작동합니다. 블랙박스 모델은 매우 정확한 예측을 제공할 수 있지만, 내부 의사 결정 논리는 불투명한 상태로 남아 있습니다. XAI는 이 과정을 밝히고 이해관계자가 특정 결정이 내려진 이유를 이해하도록 돕는 것을 목표로 합니다. 이는 신뢰 구축, 안전 보장, 규제 준수 충족에 중요한 역할을 합니다.

설명 가능성의 중요성

자동화된 의사 결정에 대한 투명성 요구가 산업 전반에 걸쳐 XAI(설명 가능한 인공지능) 도입을 촉진하고 있습니다. 신뢰는 핵심 요소입니다. 사용자는 예측 모델링의 추론 과정을 검증할 수 없다면 이를 신뢰하기 어렵습니다. 이는 오류가 심각한 결과를 초래할 수 있는 고위험 환경에서 특히 중요합니다.

  • 규제 준수: 유럽연합 인공지능법(EU AI Act ) 및 일반 데이터 보호 규정(GDPR)과 같은 새로운 법적 프레임워크는 고위험 인공지능 시스템이 의사 결정에 대해 해석 가능한 설명을 제공하도록 점점 더 의무화하고 있습니다.
  • 윤리적 인공지능: 설명 가능한 인공지능(XAI) 구현은 인공지능 윤리의 초석입니다. 모델 출력에 영향을 미치는 특징들을 밝혀냄으로써 개발자는 알고리즘 편향을 식별하고 완화할 수 있으며, 이를 통해 시스템이 다양한 인구통계학적 집단에 걸쳐 공정하게 운영되도록 보장합니다.
  • 모델 디버깅: 엔지니어에게 설명 가능성은 모델 모니터링에 필수적입니다. 이는 모델이 특정 극단적 사례에서 실패하거나 데이터 드리프트로 인해 오류가 발생하는 원인을 진단하는 데 도움을 주어, 보다 표적화된 재훈련을 가능하게 합니다.

XAI의 일반적인 기법

신경망을 보다 투명하게 만드는 다양한 기법이 존재하며, 이는 모델에 무관한(모든 알고리즘에 적용 가능) 기법인지 모델에 특화된 기법인지에 따라 분류되는 경우가 많다.

  • SHAP (SHapley Additive exPlanations): 협력 게임 이론에 기반하여, SHAP 값은 주어진 예측에 대해 각 특징에 기여도 점수를 할당하여, 각 입력값이 기준선 결과로부터 결과를 얼마나 변화시켰는지 설명합니다.
  • LIME(Local Interpretable Model-agnostic Explanations): 이 방법은 특정 예측값 주변에서 복잡한 모델을 선형 모델과 같은 단순하고 해석 가능한 모델로 국소적으로 근사화합니다. LIME은 입력값을 변동시키고 출력 변화를 관찰함으로써 개별 사례를 설명하는 데 도움을 줍니다.
  • 살리언시 맵: 컴퓨터 비전(CV) 분야에서 널리 사용되는 이 시각화 기법은 모델의 판정에 가장 큰 영향을 준 이미지 내 픽셀을 강조 표시합니다. Grad-CAM과 같은 방법은 모델이 객체를 식별하기 위해 '주목한' 위치를 보여주는 히트맵을 생성합니다.

실제 애플리케이션

설명 가능한 인공지능은 '무엇'만큼이나 '왜'가 중요한 분야에서 핵심적이다.

  1. 의료 진단: 의료 영상 분석에서 AI가 단순히 엑스레이를 비정상으로 표시하는 것만으로는 부족합니다. XAI(설명 가능한 AI) 기반 시스템은 경보를 유발한 폐나 뼈의 특정 부위를 강조 표시합니다. 이러한 시각적 증거를 통해 방사선 전문의는 모델의 결과를 검증할 수 있으며, 이는 의료 현장에서 AI 도입의 안전성을 높이는 데 기여합니다.
  2. 금융 서비스: 은행이 신용 평가에 알고리즘을 사용할 때, 대출 신청을 거절하려면 균등 신용 기회법(Equal Credit Opportunity Act)과 같은 법률을 준수하기 위해 명확한 근거가 필요합니다. XAI 도구는 거절 사유를 "부채 대비 소득 비율이 너무 높음"과 같은 이해 가능한 요소로 분해하여 AI 공정성을 촉진하고 신청자가 구체적인 문제를 해결할 수 있도록 합니다.

관련 용어 구분하기

XAI를 AI 용어집의 유사 개념과 구분하는 것이 유용합니다:

  • XAI 대 AI의 투명성: 투명성은 데이터 소스와 개발 프로세스를 포함한 전체 시스템의 개방성을 포괄하는 더 광범위한 개념입니다. XAI는 추론 근거를 이해 가능하게 만드는 기술에 특히 초점을 맞춥니다. 투명성은 모델 가중치 공개를 포함할 수 있는 반면, XAI는 해당 가중치가 특정 결과를 산출한 이유를 설명합니다.
  • XAI 대 해석 가능성: 해석 가능성은 일반적으로 의사 결정 트리나 선형 회귀와 같이 설계상 본질적으로 이해 가능한 모델을 가리킵니다. XAI는 일반적으로 심층 컨볼루션 신경망(CNN)과 같은 복잡하고 해석 불가능한 모델에 사후 적용되는 방법을 포함합니다.

코드 예시: 설명을 위한 추론 시각화

컴퓨터 비전 설명 가능성의 핵심 단계는 모델의 예측을 이미지에 직접 시각화하는 것이다. 고급 XAI는 히트맵을 사용하지만, 바운딩 박스와 신뢰도 점수를 확인하면 모델이 감지한 내용을 즉시 파악할 수 있다. ultralytics 최첨단 모델을 포함한 패키지 YOLO26사용자는 탐지 결과를 쉽게 확인할 수 있습니다.

from ultralytics import YOLO

# Load a pre-trained YOLO26 model (Nano version)
model = YOLO("yolo26n.pt")

# Run inference on an image
results = model("https://ultralytics.com/images/bus.jpg")

# Visualize the results
# This displays the image with bounding boxes, labels, and confidence scores,
# acting as a basic visual explanation of the model's detection logic.
results[0].show()

이 간단한 시각화는 정상성 검사로 기능하며, 객체 탐지 작업 중 모델이 장면 내 관련 객체에 주의를 기울이고 있음을 확인하는 기본적인 설명 가능성 형태입니다. 데이터셋 관리 및 모델 훈련 시각화를 포함한 고급 워크플로우의 경우 사용자는 Ultralytics 활용할 수 있습니다. 연구자들은 종종 NIST XAI 원칙에 설명된 심층 분석을 위해 기반 특징 맵에 접근함으로써 이를 확장합니다.

Ultralytics 커뮤니티 가입

AI의 미래에 동참하세요. 글로벌 혁신가들과 연결하고, 협력하고, 성장하세요.

지금 참여하기