용어집

설명 가능한 AI(XAI)

설명 가능한 AI(XAI)에 대해 알아보세요: 더 스마트한 AI 의사 결정을 위한 해석 가능한 인사이트를 통해 신뢰를 구축하고, 책임성을 보장하며, 규정을 준수하세요.

설명 가능한 AI(XAI)는 인간 사용자가 머신러닝 모델이 내린 결정을 이해하고 신뢰할 수 있도록 하는 일련의 프로세스와 방법입니다. 인공지능(AI)이 발전함에 따라 많은 모델이 '블랙박스'처럼 작동하기 때문에 내부 로직을 이해하기 어렵습니다. XAI는 이러한 블랙박스를 열어 모델 결과에 대한 명확한 설명을 제공하고 투명성과 책임성을 강화하는 것을 목표로 합니다. 최종 사용자가 학습된 모델과 결정을 이해하고 신뢰할 수 있는 AI 시스템을 만들고자 하는 DARPA의 설명 가능한 AI 프로그램과 같은 이니셔티브에 의해 XAI의 개발이 크게 촉진되었습니다.

설명 가능한 AI가 중요한 이유는 무엇인가요?

실용적이고 윤리적인 고려 사항에 따라 다양한 영역에 걸쳐 XAI의 필요성이 대두되고 있습니다. 사용자와 이해관계자가 결론에 도달하는 과정을 이해할 수 있다면 AI 시스템을 채택하고 신뢰할 가능성이 높아집니다. 이는 의료자율 주행 차량의 AI와 같이 이해관계가 첨예한 분야에서 특히 중요합니다. 설명 가능성은 개발자가 결함이나 예상치 못한 동작을 식별하는 데 도움이 되므로 모델을 디버깅하고 개선하는 데도 필수적입니다. 또한, XAI는 책임감 있는 AI 개발의 초석으로 알고리즘 편향을 발견 및 완화하고 AI의 공정성을 보장하는 데 도움이 됩니다. 유럽연합의 AI 법과 같은 규제가 강화되면서 AI 기반 의사 결정에 대한 설명을 제공하는 것이 법적 요건이 되고 있습니다.

XAI의 실제 적용 사례

  1. 의료 이미지 분석: 컨볼루션 신경망(CNN)과 같은 AI 모델이 의료 스캔을 분석하여 질병을 감지할 때, XAI 기술은 히트맵을 생성할 수 있습니다. 이 데이터 시각화는 모델이 뇌 스캔 데이터 세트에서 종양과 같은 상태를 가장 잘 나타내는 이미지의 특정 영역을 강조 표시합니다. 이를 통해 영상의학 전문의는 북미 방사선 학회(RSNA)와 같은 기관에서 설명한 대로 자신의 전문 지식과 비교하여 모델의 결과를 검증할 수 있습니다.
  2. 금융 서비스 및 신용 평가: 금융 분야에서는 대출 신청을 승인하거나 거부하는 데 AI 모델이 사용됩니다. 신청이 거부되는 경우, 규정에서는 명확한 이유를 제시하도록 요구하는 경우가 많습니다. SHAP(SHapley Additive exPlanations ) 또는 LIME(Local Interpretable Model-agnostic Explanations )과 같은 XAI 방법은 이러한 결정을 내린 주요 요인(예: 낮은 신용 점수, 높은 소득 대비 부채 비율)을 파악할 수 있습니다. 이는 규제 준수를 보장할 뿐만 아니라 세계경제포럼과 같은 기관에서 논의한 바와 같이 고객에게 투명성을 제공합니다.

관련 용어와 구별하기

  • AI의 투명성: 투명성과 밀접한 관련이 있지만, 투명성은 더 넓은 개념입니다. 이는 AI 시스템의 데이터, 알고리즘, 모델 배포 프로세스에 대한 인사이트를 확보하는 것을 의미합니다. XAI는 투명성의 핵심 구성 요소로, 모델의 개별 예측을 이해할 수 있도록 구체적인 도구와 기법을 제공합니다. 간단히 말해, 투명성은 전반적인 시스템의 명확성에 관한 것이지만, XAI는 특정 결과물을 설명하는 데 중점을 둡니다.
  • AI 윤리: AI 개발과 사용에 적용되어야 하는 도덕적 원칙과 가치와 관련된 광범위한 분야입니다. XAI는 주요 윤리적 원칙을 구현하기 위한 실질적인 메커니즘 역할을 합니다. 모델을 설명할 수 있게 함으로써 개발자와 감사자는 공정성, 책임성, 잠재적 피해에 대해 모델을 더 잘 평가할 수 있으므로 XAI는 윤리적으로 건전한 AI를 구축하는 데 중요한 도구가 됩니다.

도전 과제 및 고려 사항

의미 있는 설명 가능성을 달성하는 것은 복잡할 수 있습니다. 모델 성능과 해석 가능성 사이에는 종종 상충 관계가 존재하며, 매우 복잡한 딥러닝 모델은 더 정확할 수 있지만 설명하기는 더 어려울 수 있으며, 이는"비전 모델의 역사"에 자세히 설명되어 있는 문제입니다. 또한, 상세한 모델 로직을 노출하면 지적 재산에 대한 우려가 제기되거나 적대적인 공격에 대한 취약점이 생길 수 있습니다. AI 파트너십과 같은 조직과 ACM FAccT와 같은 학술 회의에서는 이러한 윤리적, 실용적 과제를 해결하기 위해 노력하고 있습니다.

Ultralytics에서는 다양한 도구와 리소스를 통해 모델 이해를 지원합니다. Ultralytics HUB 내의 시각화 기능과 Ultralytics 문서의 자세한 가이드(예: YOLO 성능 메트릭에 대한 설명)는 사용자가 Ultralytics YOLOv8과 같은 모델의 동작을 평가하고 해석하는 데 도움이 됩니다. 이를 통해 개발자는 제조에서 농업에 이르는 다양한 분야에서 더욱 안정적이고 신뢰할 수 있는 애플리케이션을 구축할 수 있습니다.

울트라 애널리틱스 커뮤니티 가입

AI의 미래와 함께하세요. 글로벌 혁신가들과 연결, 협업, 성장하기

지금 가입하기
링크가 클립보드에 복사됨