라벨 스무딩이 어떻게 과적합을 방지하고 모델의 일반화 능력을 향상시키는지 알아보세요. 더 나은 결과를 위해 Ultralytics YOLO26으로 이 기법을 구현하는 방법을 확인해 보세요.
라벨 스무딩은 기계 학습에서 모델의 일반화 능력을 향상시키고 과적합을 방지하기 위해 널리 사용되는 정규화 기법입니다. 신경망을 훈련할 때 목표는 일반적으로 예측값과 실제 값 사이의 오차를 최소화하는 것입니다. 그러나 모델이 예측에 지나치게 확신을 가지게 되면— 단일 클래스에 거의 100% 확률을 할당하는 경우— 견고한 패턴을 학습하기보다 훈련 데이터의 특정 잡음을 암기하기 시작합니다. 이러한 현상은 과적합으로 알려져 있으며, 새로운 미확인 예시에 대한 성능을 저하시킵니다. 레이블 스무딩은 모델이 절대적인 확신으로 예측하는 것을 억제함으로써 이 문제를 해결합니다. 본질적으로 네트워크에 항상 작은 오차의 여지가 있음을 알려주는 것입니다.
라벨 스무딩의 작동 방식을 이해하려면 표준 "하드" 타겟과 대비해 보는 것이 도움이 됩니다.
전통적인 지도 학습분류
라벨은 일반적으로 다음을 통해 표현됩니다 원핫 인코딩예를 들어,
고양이와 개를 구분하는 작업에서 "개" 이미지의 목표 벡터는 다음과 같을 것이다.
[0, 1]이를 완벽하게 맞추기 위해 모델은 내부 점수인
로짓무한대로 향하는, 이는 불안정한 기울기와 적응 불능으로 이어질 수 있다.
라벨 스무딩은 이러한 경직된 1과 0을 "부드러운" 목표값으로 대체합니다. 목표 확률이
1.0, 올바른 클래스가 할당될 수 있습니다 0.9, 나머지 확률 질량
(0.1)는 잘못된 클래스들 사이에 균일하게 분배됩니다. 이 미묘한 변화는
목표 함수의 손실 함수예를 들어
교차 엔트로피, 방지하는
활성화 함수 (보통
Softmax포화되는 것을 방지합니다. 그 결과 모델은
특징 공간에서 더 밀집된 클래스 클러스터를 학습하고 더 나은
모델 보정예측된 확률이
정확성을 가질 진정한 가능성을 더 정확하게 반영한다는 의미입니다.
이 기법은 데이터 모호성이 내재되어 있거나 데이터 세트가 라벨링 오류에 취약한 분야에서 특히 중요합니다.
현대 딥러닝 프레임워크는 이 기법의 적용을 단순화합니다. 사용함으로써
ultralytics 패키지를 사용하면 라벨 스무딩을 훈련 파이프라인에 쉽게 통합할 수 있습니다.
이미지 분류 또는 탐지 작업. 이는 종종 최첨단 모델들로부터 추가 성능을 끌어내기 위해 수행됩니다.
YOLO26.
다음 예제는 레이블 스무딩을 활성화한 상태에서 분류 모델을 훈련하는 방법을 보여줍니다:
from ultralytics import YOLO
# Load a pre-trained YOLO26 classification model
model = YOLO("yolo26n-cls.pt")
# Train with label_smoothing set to 0.1
# The target for the correct class becomes 1.0 - 0.5 * 0.1 = 0.95 (depending on implementation specifics)
model.train(data="mnist", epochs=5, label_smoothing=0.1)
라벨 스무딩을 다른 정규화 전략과 구분하여 언제 사용해야 하는지 이해하는 것이 도움이 됩니다.
라벨 스무딩은 최종 레이어에서 소실되는 기울기 문제를 완화하고 모델이 보다 견고한 특징을 학습하도록 유도함으로써 현대 딥러닝 아키텍처의 핵심 기법으로 자리매김하고 있다.