Yolo 비전 선전
선전
지금 참여하기
용어집

Underfitting (과소적합)

전문가 팁, 전략 및 실제 사례를 통해 머신러닝 모델의 과소적합을 식별, 예방 및 해결하는 방법을 알아보세요.

과소 적합은 다음과 같은 경우에 발생합니다. 머신 러닝(ML)에서 통계 모델 또는 알고리즘이 또는 알고리즘이 너무 단순하여 데이터의 기본 구조를 포착하지 못할 때 발생합니다. 이는 모델이 입력 변수와 목표 변수 간의 관계를 적절하게 학습할 수 없는 시나리오를 설명합니다. 모델이 데이터의 신호를 포착하지 못하기 때문에 데이터의 신호를 포착하지 못하여 학습 데이터에서 성능이 저하되고 훈련 데이터에 대한 성능이 저하되고 보이지 않는 새로운 데이터에 대한 데이터로 일반화하지 못합니다. 적합하지 않은 모델은 일반적으로 높은 편향성이 높기 때문에 데이터에 대해 강력하고 종종 잘못된 데이터에 대해 강력하고 종종 잘못된 가정을 하기 때문에 패턴을 놓치고 정확도가 떨어집니다.

부적합의 징후 및 증상

일반적으로 모델 평가 단계에서 적합도 미달을 감지하는 것은 간단합니다. 주요 지표는 높은 오류율이나 낮은 정확도와 같은 높은 오류율이나 낮은 정밀도와 같은 성능 메트릭의 점수입니다. 유효성 검사 데이터. 손실 함수가 손실 함수가 높은 상태로 유지되고 시간이 지나도 크게 감소하지 않는다면 모델이 과적합 상태일 가능성이 높습니다. 과적합과는 달리, 모델이 훈련 데이터에서는 잘 작동하지만 훈련 데이터에서는 잘 수행하지만 검증 데이터에서는 제대로 수행하지 못하는 과적합과 달리, 과소적합은 기본적으로 처음부터 작업을 학습하지 못한 시작. 학습 곡선을 분석하면 이러한 동작을 시각적으로 확인할 수 있습니다. 과적합 모델은 빠르게 수렴하는 학습 및 검증 곡선을 보여주지만 높은 오류율로 수렴합니다.

과소 피팅 대 과잉 피팅

언더피팅을 이해하려면 그 반대 개념인 오버피팅과 대조해 보면 도움이 됩니다, 과적합. 이 두 개념은 편향성-편차 트레이드 오프의 편향성-편차 트레이드 오프의 극단을 나타냅니다. 견고한 AI 시스템 구축의 핵심입니다.

  • 과소 적합(높은 편향): 모델이 너무 단순합니다(예: 비선형 데이터에 대한 선형 모델). It 학습 데이터에 너무 적은 주의를 기울이고 문제를 지나치게 단순화합니다.
  • 과적합(높은 분산): 모델이 너무 복잡합니다. 노이즈와 이상값을 포함한 학습 데이터를 암기하여 노이즈와 이상값을 포함한 학습 데이터를 기억하여 새로운 입력에 일반화할 수 없습니다.

딥러닝(DL) 과 다른 AI 분야의 목표는 이 두 극단 사이에서 '스위트 스팟'을 찾아 패턴을 학습할 수 있을 만큼 복잡하면서도 충분히 복잡하지만 일반화할 수 있을 만큼 간단한 모델을 만드는 것입니다.

일반적인 원인 및 해결 방법

여러 가지 요인으로 인해 적합도 미달이 발생할 수 있지만, 모델 아키텍처나 데이터 처리 파이프라인을 조정하여 해결할 수 있습니다.

  • 모델 단순성: 복잡한 비선형 데이터 집합에 선형 모델을 사용하는 것은 자주 발생하는 문제입니다.
    • 솔루션: 모델의 복잡성 또는 용량을 늘리세요. 예를 들어, 단순한 회귀에서 회귀에서 신경망(NN) 으로 전환하거나, 딥러닝과 같은 더 큰 아키텍처인 심층 컨볼루션 신경망(CNN)과 같은 더 큰 아키텍처를 사용하세요.
  • 기능이 충분하지 않습니다: 모델에 정확한 예측을 수행하는 데 필요한 입력 데이터가 부족할 수 있습니다.
  • 과도한 정규화: 과잉 피팅을 방지하기 위해 고안된 기술도 때때로 너무 공격적으로 적용될 수 있습니다.
    • 솔루션: 다음과 관련된 매개 변수를 줄이거나 정규화와 관련된 매개 변수를 줄이거나 드롭아웃 레이어의 비율을 낮춰 모델이 더 자유롭게 학습할 수 있도록 합니다.
  • 교육 시간이 부족합니다: 훈련 프로세스를 너무 일찍 중지하면 모델이 수렴하지 못합니다. 수렴하지 못합니다.
    • 솔루션: 더 많은 시간 동안 훈련하세요, 최적화 알고리즘이 손실을 최소화할 수 있는 시간을 더 많이 확보하세요.

실제 사례

  1. 부동산 가격 예측: 간단한 선형 회귀 모델을 사용하여 주택 가격을 예측한다고 상상해 보세요. 실제 주택 가격은 다음과 같은 복잡하고 비선형적인 요소의 영향을 받습니다. 위치, 이웃의 질, 시장 동향과 같은 복잡하고 비선형적인 요소의 영향을 받습니다. 선형 모델은 이러한 뉘앙스를 포착하지 못하여 다음과 같은 결과를 초래합니다. 예측 모델링 결과가 부적합하고 예측 모델링 결과의 정확도가 지속적으로 부정확합니다.
  2. 의료 영상 진단: 분야 의료 분야의 AI, MRI 스캔에서 종양 탐지 복잡한 모양과 질감을 식별해야 합니다. 개발자가 얕은 네트워크나 매개변수가 매우 적은 모델을 사용하는 경우 매개변수가 매우 적은 모델을 사용하면 모델은 종양과 건강한 조직을 구별하지 못할 가능성이 높습니다. 이 모델에는 고해상도 이미지 처리에 필요한 높은 민감도와 특이도를 위해 필요한 감도 및 특이도.

코드를 통한 언더피팅 해결

컴퓨터 비전의 맥락에서, 작업의 난이도에 비해 너무 작은 모델 변형을 사용할 때 종종 부적합이 발생합니다. 작업의 난이도(예: 고해상도 드론 이미지에서 작은 물체 감지)에 비해 너무 작은 모델 변형을 사용할 때 종종 발생합니다. 다음과 같은 경우 Python 예제는 더 작은 모델에서 더 크고 성능이 뛰어난 더 큰 모델로 전환하는 방법을 ultralytics 라이브러리를 사용하여 잠재적인 불충족 문제를 해결합니다.

from ultralytics import YOLO

# If 'yolo11n.pt' (Nano) is underfitting and yielding low accuracy,
# upgrade to a model with higher capacity like 'yolo11l.pt' (Large).
model = YOLO("yolo11l.pt")

# Train the larger model.
# Increasing epochs also helps the model converge if it was previously underfitting.
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)

더 큰 Ultralytics YOLO11 모델로 전환하고 적절한 학습 기간을 보장함으로써 시스템은 복잡한 패턴을 학습하는 데 필요한 파라미터를 확보하여 효과적으로 효과적으로 학습할 수 있습니다. 매우 복잡한 작업의 경우, YOLO26 (현재 개발 중인 개발 중)와 같은 미래 아키텍처는 훨씬 더 높은 밀도와 정확도를 제공하는 것을 목표로 합니다. 모델이 더 이상 과소적합하지 않은지 확인하려면 항상 강력한 테스트 데이터 세트와 비교하여 평가하세요.

Ultralytics 커뮤니티 가입

AI의 미래에 동참하세요. 글로벌 혁신가들과 연결하고, 협력하고, 성장하세요.

지금 참여하기