YOLO Vision 2025를 놓치지 마세요!
2025년 9월 25일
10:00 — 18:00 BST
하이브리드 이벤트
Yolo Vision 2024
용어집

Underfitting (과소적합)

전문가 팁, 전략 및 실제 사례를 통해 머신러닝 모델의 과소적합을 식별, 예방 및 해결하는 방법을 알아보세요.

머신 러닝(ML)에서 과소적합은 모델이 너무 단순하여 훈련 데이터의 기본 패턴을 포착하지 못하는 일반적인 문제입니다. 이러한 단순성으로 인해 입력 특징과 대상 변수 간의 관계를 학습하지 못하여 훈련된 데이터와 새로운 미지의 데이터 모두에서 성능이 저하됩니다. 과소적합된 모델은 높은 편향을 가지며, 이는 데이터에 대해 강력하고 종종 부정확한 가정을 한다는 의미입니다. 이로 인해 높은 수준의 정확도를 달성하지 못하고 일반화가 잘 되지 않는 모델이 됩니다.

과소적합 vs 과적합

과소적합과적합은 ML에서 모델이 훈련 데이터에서 새로운 데이터로 일반화하는 능력과 관련된 두 가지 주요 과제입니다. 이는 모델 복잡성의 스펙트럼에서 두 가지 극단을 나타냅니다.

  • Underfitting: 모델이 너무 단순하고 편향이 높습니다. 데이터의 기본 구조를 학습하지 못하여 높은 손실 함수 값을 초래하고 학습 및 검증 데이터세트 모두에서 성능이 저하됩니다.
  • 과적합: 모델이 너무 복잡하고 분산이 큽니다. 노이즈와 임의의 변동을 포함하여 학습 데이터를 너무 잘 학습합니다. 이로 인해 학습 세트에서는 뛰어난 성능을 보이지만 모델이 일반적인 패턴을 학습하는 대신 학습 예제를 암기했기 때문에 보이지 않는 데이터에서는 성능이 저하됩니다.

ML의 궁극적인 목표는 이러한 두 가지 사이의 균형, 즉 새로운 실제 시나리오에 효과적으로 일반화되는 모델을 만들기 위해 편향-분산 트레이드오프라고 알려진 개념을 달성하는 것입니다. 학습 곡선 분석은 모델이 과소 적합, 과대 적합 또는 적합한지 여부를 진단하는 일반적인 방법입니다.

Underfitting의 원인 및 해결 방법

효과적인 모델을 구축하려면 과소 적합을 식별하고 해결하는 것이 중요합니다. 이 문제는 일반적으로 몇 가지 일반적인 원인에서 비롯되며 각 원인에는 해당 솔루션이 있습니다.

  • 모델이 너무 단순함: 복잡한 비선형 문제에 선형 모델을 사용하는 것은 과소 적합의 대표적인 원인입니다.
    • 솔루션: 모델 복잡성을 높입니다. 여기에는 더 깊은 신경망 또는 더 작은 Ultralytics YOLO 모델 변형에서 더 큰 모델로 이동하는 것과 같이 더 큰 사전 훈련된 모델과 같은 더 강력한 모델 아키텍처로 전환하는 것이 포함될 수 있습니다. 다양한 YOLO 모델 비교를 탐색하여 더 적합한 아키텍처를 선택할 수 있습니다.
  • 불충분하거나 품질이 낮은 특징: 모델에 제공된 입력 특징에 정확한 예측을 내릴 수 있는 충분한 정보가 포함되어 있지 않으면 모델이 과소 적합됩니다.
  • 불충분한 학습: 모델이 충분히 학습되지 않았을 수 있습니다. epochs 데이터의 패턴을 학습합니다.
    • 솔루션: 훈련 기간을 늘립니다. 훈련 기간이 길어지면 과적합이 발생하지 않도록 유효성 검사 지표를 모니터링하는 것이 중요합니다. Ultralytics HUB와 같은 도구를 사용하면 훈련 실험을 추적하고 관리하는 데 도움이 됩니다.
  • 과도한 정규화: 다음과 같은 기술: L1 및 L2 정규화 또는 높음 드롭아웃 비율은 과적합을 방지하는 데 사용되지만, 너무 공격적이면 모델을 너무 많이 제한하여 과소적합을 유발할 수 있습니다.
    • 해결 방법: 정규화의 양을 줄입니다. 이는 정규화 함수에서 페널티 항을 낮추거나 드롭아웃 비율을 줄이는 것을 의미할 수 있습니다. 모델 학습 모범 사례를 따르면 적절한 균형을 찾는 데 도움이 될 수 있습니다.

과소적합의 실제 예시

  1. 간단한 이미지 분류기: 복잡한 이미지 분류 작업(예: ImageNet 데이터 세트에서 수천 개의 객체 범주 식별)에 대해 하나 또는 두 개의 레이어만 있는 매우 기본적인 CNN(Convolutional Neural Network)을 훈련한다고 상상해 보십시오. 모델의 제한된 용량으로 인해 너무 많은 클래스를 구별하는 데 필요한 복잡한 특성을 학습할 수 없으므로 훈련 및 테스트 데이터 모두에서 낮은 정확도가 발생합니다. PyTorchTensorFlow와 같은 프레임워크는 이를 극복하기 위해 보다 정교한 아키텍처를 구축할 수 있는 도구를 제공합니다.
  2. 기본 예측 유지보수: 작동 온도만을 기준으로 기계 고장 시점을 예측하기 위해 간단한 선형 회귀 모델예측 모델링에 사용하는 것을 고려해 보십시오. 기계 고장이 실제로 진동, 수명 및 압력과 같은 요인의 복잡하고 비선형적인 상호 작용에 의해 영향을 받는 경우, 단순 선형 모델은 과소 적합됩니다. 시스템의 실제 복잡성을 포착할 수 없어 예측 성능이 저하되고 고장을 정확하게 예측할 수 없습니다. Gradient Boosting Machine 또는 신경망과 같은 보다 복잡한 모델이 더 적합합니다.

Ultralytics 커뮤니티에 참여하세요

AI의 미래에 동참하세요. 글로벌 혁신가들과 연결하고, 협력하고, 성장하세요.

지금 참여하기
클립보드에 링크가 복사되었습니다.