일반화 성능을 개선하고 과신을 줄이는 입증된 기술인 레이블 스무딩을 통해 AI 모델의 정확성과 견고성을 향상시키세요.
레이블 스무딩(Label Smoothing)은 특히 분류 작업에서 머신 러닝 모델 학습 중에 사용되는 정규화 기술입니다. 모델이 올바른 클래스에 확률 1.0을 완전히 할당하지 못하도록 하여 모델 과신 문제를 해결합니다. "하드" 레이블(올바른 클래스가 1이고 다른 모든 클래스가 0인 경우)을 사용하는 대신 레이블 스무딩은 확률 질량의 작은 부분을 다른 클래스에 분산시키는 "소프트" 레이블을 만듭니다. 이는 모델이 예측에 대해 덜 확신하도록 장려하여 더 나은 일반화와 보이지 않는 데이터에 대한 성능 향상으로 이어질 수 있습니다. 이 기술은 고성능 모델에서 특히 사용되었으며 레이블 스무딩은 언제 도움이 됩니까?(When Does Label Smoothing Help?)와 같은 논문에 자세히 설명되어 있습니다.
일반적인 지도 학습 분류 문제에서 학습 데이터는 입력과 해당 정답 레이블로 구성됩니다. 예를 들어, 이미지 분류 작업에서 고양이 이미지는 [고양이, 개, 새] 클래스에 대해 원-핫 인코딩된 벡터로 표현된 '고양이' 레이블을 갖습니다. 손실 함수를 계산할 때 모델의 예측이 이 하드 타겟에서 얼마나 멀리 떨어져 있는지에 따라 모델에 불이익이 주어집니다.
레이블 스무딩은 이 대상을 수정합니다. 올바른 클래스에 대한 대상 확률을 약간 줄이고(예: 0.9) 나머지 작은 확률(이 경우 0.1)을 잘못된 클래스에 고르게 분산시킵니다. 따라서 새로운 "소프트" 대상은 [0.9, 0.05, 0.05]와 같이 보일 수 있습니다. 이 작은 변경은 최종 신경망의 로짓 레이어가 한 클래스에 대해 매우 큰 값을 생성하는 것을 막아 과적합을 방지하는 데 도움이 됩니다. 이 프로세스는 Ultralytics HUB와 같은 플랫폼을 사용하여 모델 학습 중에 관리할 수 있습니다.
레이블 스무딩의 주요 장점은 모델 보정(calibration)을 향상시킨다는 것입니다. 보정이 잘 된 모델의 예측된 신뢰도 점수는 정확성의 실제 확률을 보다 정확하게 반영합니다. 이는 의료 영상 분석과 같이 모델의 확실성을 이해하는 것이 중요한 애플리케이션에 매우 중요합니다. 과신을 방지함으로써 새로운 데이터에 대한 모델의 일반화 능력도 향상시키는데, 이는 모든 머신 러닝 프로젝트의 핵심 목표입니다. 이는 종종 정확도의 약간의 향상으로 이어집니다. 더 나은 일반화는 실시간 추론 및 최종 모델 배포를 위한 보다 강력한 모델로 이어집니다.
레이블 스무딩은 다양한 최첨단 모델에 적용되는 간단하면서도 효과적인 기술입니다.
Label Smoothing을 다른 정규화 기술과 구별하는 것이 중요합니다.