Yolo 비전 선전
선전
지금 참여하기
용어집

AI 안전

AI 안전성의 핵심 기둥인 정렬(alignment)과 견고성(robustness)을 학습하세요. Ultralytics 활용해 신뢰할 수 있는 모델을 배포하고 AI의 신뢰성을 보장하는 방법을 알아보세요.

인공지능 안전은 인공지능(AI) 시스템이 신뢰성 있고 예측 가능하며 유익하게 작동하도록 보장하는 데 초점을 맞춘 다학제적 분야입니다. 외부 공격으로부터 시스템을 보호하는 사이버 보안과 달리, 인공지능 안전은 시스템 자체의 설계 및 운영에 내재된 위험을 다룹니다. 여기에는 목표 불일치, 새로운 환경에서의 견고성 부족, 또는 딥러닝(DL) 일반화 실패로 인해 발생하는 의도하지 않은 결과를 방지하는 것이 포함됩니다. 모델이 점점 더 자율적으로 발전함에 따라, 인간과 호환 가능한 인공지능 센터(Center for Human-Compatible AI )와 같은 기관의 연구자들은 이러한 기술이 인간의 의도와 안전 기준에 부합하도록 보장하기 위해 노력하고 있습니다.

안전한 인공지능의 핵심 기둥

안전한 시스템을 구축하려면 단순한 정확도 지표를 넘어서는 여러 기술적 과제를 해결해야 합니다. 이러한 핵심 요소들은 머신러닝(ML) 모델이 복잡한 실제 환경에 배포되었을 때에도 통제 가능한 상태를 유지하도록 보장합니다.

  • 강건성: 안전한 모델은 손상된 입력이나 환경 변화에 직면했을 때도 성능을 유지해야 합니다. 여기에는 적대적 공격에 대한 방어력이 포함되며, 이는 입력 데이터를 미묘하게 조작하여 모델이 높은 확신도로 오류를 범하도록 유도하는 공격을 의미합니다.
  • 정렬: 이 원칙은 AI의 목표가 설계자의 진정한 의도와 일치하도록 보장합니다. 강화 학습에서는 시스템이 보상 함수를 "속이는" 방법을 학습할 때 종종 정렬 불일치가 발생합니다. 예를 들어 청소 로봇이 더 빨리 정리를 하려고 화병을 깨는 경우입니다. 이를 완화하기 위해 인간 피드백 기반 강화 학습(RLHF)과 같은 기법이 사용됩니다.
  • 해석 가능성: 설명 가능한 인공지능(XAI)으로도 알려져 있으며, 이는 "블랙박스" 모델에 투명성을 부여하는 것을 의미합니다. 특징 맵을 시각화함으로써 엔지니어는 의사 결정 과정을 이해할 수 있어 모델이 허위 상관관계에 의존하지 않도록 보장합니다.
  • 모니터링: 지속적인 모델 모니터링은 데이터 드리프트를 detect 데 필수적입니다. 실제 데이터가 훈련 데이터와 현저히 차이를 보이기 시작할 경우 안전 프로토콜은 경보를 발령하거나 대체 메커니즘을 작동시켜야 합니다.

실제 애플리케이션

AI 안전성은 알고리즘 오류가 신체적 피해나 중대한 경제적 손실을 초래할 수 있는 고위험 분야에서 최우선 과제입니다.

  1. 자율주행차: 자동차 AI 분야에서 안전 프레임워크는 차량이 불확실성에 어떻게 반응하는지 정의합니다. 물체 감지 모델이 높은 신뢰도로 장애물을 식별하지 못할 경우, 시스템은 추측하기보다는 제동과 같은 안전한 상태로 기본 설정되어야 합니다. NHTSA(미국 도로교통안전청) 의 자율주행차 지침은 이러한 안전 장치 메커니즘을 강조합니다.
  2. 의료 진단: 의료 분야에 인공지능을 적용할 때 안전성은 중대한 진단에서 위음성(false negative)을 최소화하는 것을 의미합니다. 시스템은 잠재적 질환을 놓치지 않도록 높은 재현율(recall )로 조정되는 경우가 많으며, 의사에게 '제2의 의견' 역할을 효과적으로 수행합니다. FDA 디지털 헬스 센터와 같은 규제 기관은 의료기기 소프트웨어(SaMD)에 대해 엄격한 기준을 설정합니다.

안전 임계값 구현

컴퓨터 비전에서 가장 기본적인 안전 장치 중 하나는 신뢰도 임계값을 활용하는 것이다. 추론 과정에서 낮은 확률의 예측을 걸러냄으로써 개발자는 시스템이 불확실한 정보에 기반해 동작하는 것을 방지한다.

다음 예시는 Ultralytics 사용하여 안전 필터를 적용하는 방법을 보여줍니다. 이를 통해 신뢰할 수 있는 탐지 결과만 처리되도록 보장합니다.

from ultralytics import YOLO

# Load the YOLO26 model (latest standard for efficiency)
model = YOLO("yolo26n.pt")

# Run inference with a strict confidence threshold of 0.7 (70%)
# This acts as a safety gate to ignore uncertain predictions
results = model.predict("https://ultralytics.com/images/bus.jpg", conf=0.7)

# Verify detections meet safety criteria
print(f"Safety Check: {len(results[0].boxes)} objects detected with >70% confidence.")

AI 안전 vs. AI 윤리

이러한 용어들은 종종 혼용되지만, 책임 있는 인공지능의 서로 다른 측면을 다루고 있습니다.

  • 인공지능 안전은 기술 공학 분야입니다. "이 시스템이 사고를 일으키지 않고 제대로 작동할 것인가?"라는 질문을 던집니다. 강화 학습에서의 모델 환각과 안전한 탐색 같은 문제들을 다룹니다.
  • 인공지능 윤리 사회기술적 프레임워크입니다. "이 시스템을 구축해야 하는가, 그리고 이는 공정한가?"라는 질문을 던집니다. EU AI 법안에서 제시된 바와 같이 알고리즘 편향성, 사생활 권리, 이익의 공정한 분배와 같은 문제에 초점을 맞춥니다.

향후 전망

산업이 인공 일반 지능(AGI)으로 나아가면서 안전 연구의 중요성이 점점 더 커지고 있습니다. 기업들은 Ultralytics 활용하여 데이터셋을 관리하고 모델 배포를 감독함으로써, AI 솔루션이 수명 주기 전반에 걸쳐 견고하고 투명하며 안전 기준에 부합하도록 보장할 수 있습니다.

Ultralytics 커뮤니티 가입

AI의 미래에 동참하세요. 글로벌 혁신가들과 연결하고, 협력하고, 성장하세요.

지금 참여하기