Yolo 비전 선전
선전
지금 참여하기
용어집

AI 편향

윤리적인 AI 개발을 위한 전략, 도구 및 실제 사례를 통해 AI 시스템에서 편향을 식별, 완화 및 방지하는 방법을 알아보세요.

AI의 편향성은 인공지능 시스템에 내재된 체계적인 오류나 편견을 말합니다. 인공 지능(AI) 시스템에 내재된 불공정하고 불평등하거나 차별적인 결과를 초래하는 것을 말합니다. 이러한 편견은 무작위적인 오류와 달리 일관되고 반복 가능하며, 종종 임의의 사용자 그룹이나 데이터 입력에 대해 다른 사용자 그룹보다 특권을 부여하기도 합니다. 점점 더 많은 조직에서 머신 러닝(ML)을 중요한 의사 결정 프로세스에 점점 더 많이 통합함에 따라 편견을 인식하고 해결하는 것이 AI 윤리. 이러한 문제를 완화하지 못하면 다음과 같은 결과를 초래할 수 있습니다. 다음과 같은 애플리케이션에서 왜곡된 결과를 초래할 수 있습니다. 의료 진단 분야의 AI에서 자동화된 금융 대출.

AI 시스템의 편향성 발생 원인

편향성은 개발 라이프사이클의 여러 단계에서 AI 시스템에 침투할 수 있습니다. 이러한 기원을 이해하는 것은 강력하고 공평한 모델을 만드는 데 필수적입니다.

  • 데이터 세트 편향: 가장 많이 발생하는 가장 널리 퍼진 원인으로, 모델을 학습시키는 데 사용되는 모델을 학습시키는 데 사용되는 학습 데이터가 실제 인구를 정확하게 대표하지 않을 때 발생합니다. 예를 들어 이미지 분류 모델이 주로 서구 국가의 이미지로 훈련된 경우, 다른 지역의 사물이나 장면을 인식하는 데 어려움을 겪을 수 있습니다. 종종 선택 편향과 관련된 현상입니다.
  • 알고리즘 편향: 때때로, 알고리즘 자체의 수학적 설계가 기존의 격차를 증폭시킬 수 있습니다. 특정 최적화 알고리즘의 경우 과소 대표되는 하위 그룹을 희생하면서 전체 정확도를 우선시할 수 있습니다. 하위 그룹을 희생시키면서 전체 정확도를 우선시하여 유효한 소수 집단을 나타내는 '이상값'을 효과적으로 무시할 수 있습니다.
  • 인지 및 인간 편향: 엔지니어가 데이터 라벨링 또는 기능 선택 시 데이터 라벨링 또는 기능 선택 시 엔지니어의 주관적인 선택은 의도치 않게 인간의 편견이 시스템에 인코딩될 수 있습니다.

실제 적용 사례 및 시사점

AI 편향의 결과는 배포된 다양한 기술에서 관찰할 수 있습니다.

  1. 얼굴 인식의 격차: 상업용 얼굴 인식 시스템은 역사적으로 여성과 유색인종을 식별할 때 더 높은 오류율을 보였습니다. 다음과 같은 연구 프로젝트 젠더 셰이드와 같은 연구 프로젝트는 대표성이 없는 데이터 세트가 특정 인구 통계에 대한 성능 저하로 이어져 더 나은 데이터 프라이버시 및 포용성 표준을 개선해야 한다는 목소리가 높아졌습니다.
  2. 예측 치안과 재범률: 범죄 재범률을 예측하는 데 사용되는 알고리즘이 인종적 편견을 드러낸다는 비판을 받아왔습니다. 다음과 같은 조사는 ProPublica의 COMPAS 분석 와 같은 조사에 따르면 일부 모델은 소수인종 피고인을 고위험군으로 잘못 분류할 가능성이 더 높은 것으로 나타났습니다. 사회적 불평등을 반영하는 과거 체포 데이터에 의존하는 것의 위험성을 보여줍니다.

완화 전략 및 도구

편견을 해결하려면 다음과 같은 사전 예방적 접근 방식이 필요합니다. AI의 공정성. 개발자는 여러 가지 기술을 사용하여 편향을 detect 줄일 수 있습니다.

  • 데이터 증강: 모델 일반화를 개선하는 효과적인 방법 중 하나는 데이터 증강입니다. 인위적으로 기존 데이터 포인트의 이미지의 뒤집기, 회전, 색상 밸런스 조정 등 기존 데이터 포인트의 변형을 인위적으로 생성함으로써 개발자는 는 다음과 같은 모델을 노출할 수 있습니다. Ultralytics YOLO11 와 같은 모델을 더 광범위한 다양한 입력에 노출할 수 있습니다.
  • 알고리즘 감사: 다양한 벤치마크에 대해 정기적으로 모델을 테스트하는 것이 중요합니다. 다음과 같은 도구 IBM의 AI Fairness 360 및 Microsoft Fairlearn과 같은 도구는 여러 하위 그룹에 걸쳐 모델 성능을 평가할 수 있는 메트릭을 제공합니다.
  • 투명성: 채택 설명 가능한 AI(XAI) 관행을 도입하면 이해관계자가 모델이 특정 예측을 하는 이유를 이해하여 차별적 논리를 쉽게 발견하고 로직을 더 쉽게 발견할 수 있습니다.

코드 예시: 증강을 통한 일반화 개선

다음 Python 스니펫은 훈련 중에 데이터 증강을 적용하는 방법을 보여줍니다. ultralytics 패키지를 추가합니다. 이렇게 하면 모델이 특정 변경 사항에 대해 불변적이 되어 특정 시각적 특성에 대한 특정 시각적 특성에 대한 과적합을 줄일 수 있습니다.

from ultralytics import YOLO

# Load the YOLO11 model
model = YOLO("yolo11n.pt")

# Train with data augmentation enabled
# 'fliplr' (flip left-right) and 'hsv_h' (hue adjustment) increase data diversity
results = model.train(
    data="coco8.yaml",
    epochs=5,
    fliplr=0.5,  # Apply horizontal flip with 50% probability
    hsv_h=0.015,  # Adjust image hue fraction
)

관련 용어 구분하기

'AI의 편향성'을 밀접하게 관련된 용어집 용어와 구별하는 것이 도움이 됩니다:

  • AI의 편향성 대 알고리즘 편향성: "AI의 편향성"은 모든 불공정성의 원인(데이터, 사람, 시스템)을 포괄하는 포괄적인 용어입니다. "알고리즘 편향"은 구체적으로 모델의 계산 절차 또는 객관적 함수에 의해 도입된 편향을 의미합니다. 객관적 함수.
  • AI의 편향성 대 데이터 세트 편향성: "데이터 세트 편향"은 학습 자료의 수집 및 큐레이션에 뿌리를 둔 AI 편향의 구체적인 원인입니다. 자료의 수집 및 큐레이션에 뿌리를 두고 있습니다. 완벽하게 공정한 알고리즘이라도 편향된 데이터 세트에서 학습하는 경우 'AI의 편향성'을 보일 수 있습니다.

다음과 같은 프레임워크를 준수함으로써 NIST AI 위험 관리 프레임워크와 같은 프레임워크를 준수함으로써 개발자는 다음을 수행할 수 있습니다. 구축하기 위해 노력할 수 있습니다. 책임감 있는 AI 시스템을 구축할 수 있습니다.

Ultralytics 커뮤니티 가입

AI의 미래에 동참하세요. 글로벌 혁신가들과 연결하고, 협력하고, 성장하세요.

지금 참여하기