용어집

AI의 투명성

AI의 투명성이 신뢰, 책임, 윤리적 관행에 필수적인 이유를 알아보세요. 지금 바로 실제 적용 사례와 이점을 살펴보세요!

YOLO 모델을 Ultralytics HUB로 간단히
훈련

자세히 알아보기

인공 지능(AI) 의 투명성은 AI 시스템의 내부 작동과 의사 결정 과정을 인간이 이해할 수 있는 정도를 의미합니다. 투명한 AI 시스템은 뚫을 수 없는 '블랙박스'처럼 작동하는 것이 아니라 사용자, 개발자, 규제기관이 주어진 입력에 따라 특정 결론이나 예측에 도달하는 과정을 이해할 수 있게 해줍니다. 이러한 투명성은 특히 컴퓨터 비전을 포함한 AI 시스템이 더욱 복잡해지고 중요한 사회적 기능에 통합됨에 따라 신뢰를 구축하고 책임을 보장하며 인간과 AI 간의 효과적인 협업을 가능하게 하는 데 필수적인 요소입니다.

AI에서 투명성의 중요성

AI 시스템이 의료, 금융, 자율 시스템과 같은 민감한 영역에서 의사 결정에 영향을 미치기 때문에 그 추론을 이해하는 것이 필수적입니다. 높은 정확도만으로는 충분하지 않은 경우가 많습니다. 투명성이 필요합니다:

  • 디버깅 및 개선: 모델이 오류를 일으키는 이유를 이해하면 개발자가 모델의 성능과 안정성을 개선하는 데 도움이 됩니다. 이는 효과적인 모델 평가와 미세 조정을 위해 매우 중요합니다.
  • 편향성 식별 및 완화: 투명성을 통해 모델이 데이터의 불공정하거나 차별적인 패턴에 의존하는지를 파악할 수 있어 AI의 편향성을 해결하는 데 도움이 됩니다.
  • AI의 공정성 보장: 이해관계자는 의사 결정 요소를 이해함으로써 결과가 공평하고 정의로운지 확인할 수 있습니다.
  • 신뢰 구축: 사용자와 이해관계자는 자신이 이해할 수 있는 AI 시스템을 신뢰하고 채택할 가능성이 높습니다.
  • 규정 준수: EU AI 법과 같은 규정과 NIST AI 위험 관리 프레임워크와 같은 프레임워크는 특정 AI 애플리케이션에 대한 투명성을 점점 더 의무화하고 있습니다.
  • AI 윤리 준수: 투명성은 책임과 설명의 권리 같은 윤리적 원칙을 뒷받침합니다.

투명성 확보

특히 복잡한 딥러닝 모델에서 투명성이 항상 내재되어 있는 것은 아닙니다. 투명성을 향상시키는 기술은 종종 설명 가능한 AI(XAI)의 범주에 속하며, 이는 AI 결정을 이해할 수 있게 만드는 방법을 개발하는 데 중점을 둡니다. 여기에는 가능한 경우 선형 회귀 또는 의사 결정 트리와 같은 본질적으로 해석 가능한 모델을 사용하거나 신경망과 같은 복잡한 모델에 LIME 또는 SHAP과 같은 사후 설명 기법을 적용하는 것이 포함될 수 있습니다. 지속적인 모델 모니터링과 Ultralytics 문서 가이드에 있는 리소스와 같은 명확한 문서화도 전반적인 시스템 투명성에 크게 기여합니다.

AI의 투명성 적용

투명성은 다양한 영역에서 매우 중요합니다. 다음은 두 가지 구체적인 예입니다:

관련 개념

투명성은 다른 여러 개념과 밀접하게 연관되어 있지만 구별되는 개념이기도 합니다:

  • 설명 가능한 AI(XAI): XAI는 AI 결정을 이해하기 쉽게 만드는 데 사용되는 방법과 기술을 말합니다. 투명성은 XAI를 통해 달성하고자 하는 목표 또는 속성입니다. 이 분야를 발전시키는 데 영향을 미친 것은 DARPA XAI 프로그램입니다.
  • 해석 가능성: 종종 투명성과 동의어로 사용되는 해석 가능성은 내부 메커니즘을 본질적으로 이해할 수 있는 모델(예: 더 단순한 모델)을 더 구체적으로 지칭하기도 합니다. 용어와 그 뉘앙스에 대해 자세히 알아볼 수 있습니다.
  • AI의 공정성: 투명성은 편견을 드러내어 불공정성을 감지하고 해결하는 데 도움이 될 수 있지만, 공정성 자체는 공평한 결과에 초점을 맞춘 별도의 목표입니다.
  • 책임감: 투명성은 책임감의 전제 조건입니다. 어떤 결정이 어떻게 내려졌는지 알면 OECD AI 책임성 원칙과 같은 프레임워크에 명시된 대로 책임을 적절히 할당할 수 있습니다.

도전 과제 및 고려 사항

완전한 투명성을 달성하는 것은 어려울 수 있습니다.'비전 모델의 역사'에서 설명한 것처럼 모델 복잡성(정확도가 높아질 수 있음)과 해석 가능성 사이에는 종종 상충 관계가 있습니다. 대규모 언어 모델이나 고급 컨볼루션 신경망(CNN) 과 같이 매우 복잡한 모델은 완전히 설명하기 어려울 수 있습니다. 또한, 세부적인 모델 작동 방식을 노출하면 지적 재산권(IP와 AI에 관한 WIPO 대화) 또는 공격자가 시스템을 악용하는 방법을 이해할 경우 조작 가능성에 대한 우려가 제기될 수 있습니다. AI 파트너십, AI Now Institute, ACM FAccT와 같은 학술 회의와 같은 단체에서는 이러한 복잡한 문제를 해결하기 위해 노력하고 있으며, 종종 IEEE 트랜잭션스 온 테크놀로지 앤 소사이어티와 같은 저널에 연구 결과를 발표하기도 합니다.

Ultralytics 모델 동작을 이해하기 위한 도구와 리소스를 제공하여 투명성을 지원합니다. Ultralytics HUB는 시각화 기능을 제공하며, YOLO 성능 지표 가이드와 같은 Ultralytics 문서의 자세한 문서는 사용자가 다음과 같은 모델을 평가하고 이해하는 데 도움이 됩니다. Ultralytics YOLO (예 Ultralytics YOLOv8)를 물체 감지와 같은 작업에 사용할 수 있습니다. 또한 다양한 시스템과의 통합을 용이하게 하기 위해 다양한 모델 배포 옵션을 제공합니다.

모두 보기