AI 안전성의 핵심 기둥인 정렬(alignment)과 견고성(robustness)을 학습하세요. Ultralytics 활용해 신뢰할 수 있는 모델을 배포하고 AI의 신뢰성을 보장하는 방법을 알아보세요.
인공지능 안전은 인공지능(AI) 시스템이 신뢰성 있고 예측 가능하며 유익하게 작동하도록 보장하는 데 초점을 맞춘 다학제적 분야입니다. 외부 공격으로부터 시스템을 보호하는 사이버 보안과 달리, 인공지능 안전은 시스템 자체의 설계 및 운영에 내재된 위험을 다룹니다. 여기에는 목표 불일치, 새로운 환경에서의 견고성 부족, 또는 딥러닝(DL) 일반화 실패로 인해 발생하는 의도하지 않은 결과를 방지하는 것이 포함됩니다. 모델이 점점 더 자율적으로 발전함에 따라, 인간과 호환 가능한 인공지능 센터(Center for Human-Compatible AI )와 같은 기관의 연구자들은 이러한 기술이 인간의 의도와 안전 기준에 부합하도록 보장하기 위해 노력하고 있습니다.
안전한 시스템을 구축하려면 단순한 정확도 지표를 넘어서는 여러 기술적 과제를 해결해야 합니다. 이러한 핵심 요소들은 머신러닝(ML) 모델이 복잡한 실제 환경에 배포되었을 때에도 통제 가능한 상태를 유지하도록 보장합니다.
AI 안전성은 알고리즘 오류가 신체적 피해나 중대한 경제적 손실을 초래할 수 있는 고위험 분야에서 최우선 과제입니다.
컴퓨터 비전에서 가장 기본적인 안전 장치 중 하나는 신뢰도 임계값을 활용하는 것이다. 추론 과정에서 낮은 확률의 예측을 걸러냄으로써 개발자는 시스템이 불확실한 정보에 기반해 동작하는 것을 방지한다.
다음 예시는 Ultralytics 사용하여 안전 필터를 적용하는 방법을 보여줍니다. 이를 통해 신뢰할 수 있는 탐지 결과만 처리되도록 보장합니다.
from ultralytics import YOLO
# Load the YOLO26 model (latest standard for efficiency)
model = YOLO("yolo26n.pt")
# Run inference with a strict confidence threshold of 0.7 (70%)
# This acts as a safety gate to ignore uncertain predictions
results = model.predict("https://ultralytics.com/images/bus.jpg", conf=0.7)
# Verify detections meet safety criteria
print(f"Safety Check: {len(results[0].boxes)} objects detected with >70% confidence.")
이러한 용어들은 종종 혼용되지만, 책임 있는 인공지능의 서로 다른 측면을 다루고 있습니다.
산업이 인공 일반 지능(AGI)으로 나아가면서 안전 연구의 중요성이 점점 더 커지고 있습니다. 기업들은 Ultralytics 활용하여 데이터셋을 관리하고 모델 배포를 감독함으로써, AI 솔루션이 수명 주기 전반에 걸쳐 견고하고 투명하며 안전 기준에 부합하도록 보장할 수 있습니다.