일반화를 개선하고 과신을 줄이는 검증된 기술인 라벨 평활화로 AI 모델의 정확도와 견고성을 향상하세요.
라벨 평활화는 머신러닝 모델을 훈련할 때, 특히 분류 작업에서 사용되는 정규화 기법입니다. 이는 모델이 올바른 클래스에 전체 확률 1.0을 할당하지 못하도록 함으로써 모델 과신 문제를 해결합니다. 라벨 스무딩은 "하드" 라벨(올바른 클래스가 1이고 다른 모든 클래스가 0인 경우)을 사용하는 대신 "소프트" 라벨을 생성하여 확률 질량의 일부를 다른 클래스에 분배합니다. 이렇게 하면 모델의 예측에 대한 확신이 낮아져 보이지 않는 데이터에 대한 일반화 및 성능 향상으로 이어질 수 있습니다. 이 기법은 특히 고성능 모델에 사용되었으며, 라벨 평활화는 언제 도움이 되나요? 등의 문서에 자세히 설명되어 있습니다.
일반적인 지도 학습 분류 문제에서 훈련 데이터는 입력과 그에 해당하는 올바른 레이블로 구성됩니다. 예를 들어 이미지 분류 작업에서 고양이의 이미지에는 [고양이, 개, 새] 클래스와 같이 '고양이'라는 레이블이 하나의 핫 인코딩된 벡터로 표현됩니다. 손실 함수를 계산할 때 모델은 예측이 이 어려운 목표에서 얼마나 멀리 떨어져 있는지에 따라 페널티를 받습니다.
라벨 스무딩은 이 목표를 수정합니다. 올바른 클래스에 대한 목표 확률을 약간 낮추고(예: 0.9로) 나머지 작은 확률(이 경우 0.1)을 잘못된 클래스에 균등하게 분배합니다. 따라서 새로운 "소프트" 타겟은 [0.9, 0.05, 0.05]와 같이 보일 수 있습니다. 이 작은 변화는 신경망의 최종 로지트 레이어가 한 클래스에 대해 매우 큰 값을 생성하지 못하도록 하여 과적합을 방지하는 데 도움이 됩니다. 이 프로세스는 모델 훈련 중에 Ultralytics HUB와 같은 플랫폼을 사용하여 관리할 수 있습니다.
라벨 스무딩의 가장 큰 장점은 모델 보정을 개선한다는 것입니다. 잘 보정된 모델의 예측 신뢰도 점수는 실제 정확도 확률을 더 정확하게 반영합니다. 이는 의료 이미지 분석과 같이 모델의 확실성을 이해하는 것이 중요한 애플리케이션에 매우 중요합니다. 또한 과신을 방지함으로써 모든 머신 러닝 프로젝트의 핵심 목표인 새로운 데이터로 일반화하는 모델의 능력을 향상시킵니다. 이로 인해 정확도가 약간 향상되는 경우가 많습니다. 일반화 능력이 향상되면 실시간 추론과 최종 모델 배포를 위한 더 강력한 모델이 만들어집니다.
라벨 스무딩은 다양한 최신 모델에 적용되는 간단하면서도 효과적인 기법입니다.
라벨 스무딩을 다른 정규화 기법과 구별하는 것이 중요합니다.