AI 안전에 대해 알아보세요. AI 시스템으로 인한 의도치 않은 피해를 예방하는 데 중요한 분야입니다. 책임감 있는 AI에서 핵심 요소, 실제 응용 분야 및 역할을 확인하세요.
AI 안전은 인공지능(AI)의 전담 분야로 AI 시스템이 의도하지 않은 피해를 일으키지 않고 안정적이고 예측 가능하게 작동하도록 보장하는 데 중점을 둡니다. 딥 러닝 딥 러닝(DL) 모델이 더욱 자율화되고 중요 인프라에 통합됨에 따라 시스템 장애로 인한 잠재적 결과가 크게 증가하고 있습니다. AI 안전의 AI 안전의 주요 목표는 기술적 결함, 예기치 않은 행동 또는 행동 또는 AI의 목표와 인간의 가치 사이의 불일치로 인해 발생하는 위험을 식별하고 분석하며 완화하는 것입니다. 이 분야에는 엄격한 모델 테스트부터 엄격한 모델 테스트에서부터 시스템 동작에 대한 수학적 보증 개발까지 광범위한 관행을 포괄합니다.
신뢰할 수 있는 시스템을 구축하기 위해 연구자와 엔지니어는 다음과 같은 몇 가지 기본 요소에 집중합니다. 머신 러닝(ML) 모델의 올바른 작동 보장하는 몇 가지 기본 요소에 집중합니다.
AI 안전은 단순한 이론이 아니라, 자동차 및 의료 분야에서 AI를 배포하기 위한 필수 요건입니다. 중요한 요구 사항입니다.
배포 시 안전을 강화하는 기본적인 방법 중 하나는 엄격한 신뢰도 임계값을 구현하는 것입니다. 신뢰도가 낮은 예측을 무시함으로써 신뢰도가 낮은 예측을 무시함으로써 개발자는 AI 에이전트가 약하거나 노이즈가 많은 데이터에 대해 작동하는 것을 방지할 수 있습니다.
다음 예는 다음을 사용하여 예측을 필터링하는 방법을 보여줍니다. Ultralytics YOLO11 모델을 사용하여 예측을 필터링하여 불확실성이 높은 탐지만 처리되도록 하는 방법을 보여줍니다.
from ultralytics import YOLO
# Load the YOLO11 model for object detection
model = YOLO("yolo11n.pt")
# Perform inference on an image with a strict confidence threshold
# This ensures the model only reports objects it is at least 70% sure about
results = model.predict("https://ultralytics.com/images/bus.jpg", conf=0.70)
# Process only the safe, high-confidence detections
for result in results:
print(f"Detected {len(result.boxes)} objects exceeding safety threshold.")
이 용어는 종종 같은 의미로 사용되지만, 책임감 있는 AI 개발의 각기 다른 측면을 다루고 있습니다. 책임감 있는 AI 개발의 여러 측면을 다룹니다.
다음과 같은 프레임워크는 NIST AI 위험 관리 프레임워크와 같은 프레임워크는 조직이 안전과 윤리적 위험을 모두 해결할 수 있는 가이드라인을 제공합니다. 모델이 다음과 같은 방향으로 진화함에 따라 인공 일반 지능(AGI)으로 발전함에 따라, 다음과 같은 기관의 안전 연구자들과 생명의 미래 연구소와 업계 개발자 간의 협력이 점점 더 중요해지고 있습니다. 기술이 인류에게 계속 유익하도록 보장하기 위해