전문가 팁, 전략 및 실제 사례를 통해 머신러닝 모델의 과소적합을 식별, 예방 및 해결하는 방법을 알아보세요.
과소 적합은 다음과 같은 경우에 발생합니다. 머신 러닝(ML)에서 통계 모델 또는 알고리즘이 또는 알고리즘이 너무 단순하여 데이터의 기본 구조를 포착하지 못할 때 발생합니다. 이는 모델이 입력 변수와 목표 변수 간의 관계를 적절하게 학습할 수 없는 시나리오를 설명합니다. 모델이 데이터의 신호를 포착하지 못하기 때문에 데이터의 신호를 포착하지 못하여 학습 데이터에서 성능이 저하되고 훈련 데이터에 대한 성능이 저하되고 보이지 않는 새로운 데이터에 대한 데이터로 일반화하지 못합니다. 적합하지 않은 모델은 일반적으로 높은 편향성이 높기 때문에 데이터에 대해 강력하고 종종 잘못된 데이터에 대해 강력하고 종종 잘못된 가정을 하기 때문에 패턴을 놓치고 정확도가 떨어집니다.
일반적으로 모델 평가 단계에서 적합도 미달을 감지하는 것은 간단합니다. 주요 지표는 높은 오류율이나 낮은 정확도와 같은 높은 오류율이나 낮은 정밀도와 같은 성능 메트릭의 점수입니다. 유효성 검사 데이터. 손실 함수가 손실 함수가 높은 상태로 유지되고 시간이 지나도 크게 감소하지 않는다면 모델이 과적합 상태일 가능성이 높습니다. 과적합과는 달리, 모델이 훈련 데이터에서는 잘 작동하지만 훈련 데이터에서는 잘 수행하지만 검증 데이터에서는 제대로 수행하지 못하는 과적합과 달리, 과소적합은 기본적으로 처음부터 작업을 학습하지 못한 시작. 학습 곡선을 분석하면 이러한 동작을 시각적으로 확인할 수 있습니다. 과적합 모델은 빠르게 수렴하는 학습 및 검증 곡선을 보여주지만 높은 오류율로 수렴합니다.
언더피팅을 이해하려면 그 반대 개념인 오버피팅과 대조해 보면 도움이 됩니다, 과적합. 이 두 개념은 편향성-편차 트레이드 오프의 편향성-편차 트레이드 오프의 극단을 나타냅니다. 견고한 AI 시스템 구축의 핵심입니다.
딥러닝(DL) 과 다른 AI 분야의 목표는 이 두 극단 사이에서 '스위트 스팟'을 찾아 패턴을 학습할 수 있을 만큼 복잡하면서도 충분히 복잡하지만 일반화할 수 있을 만큼 간단한 모델을 만드는 것입니다.
여러 가지 요인으로 인해 적합도 미달이 발생할 수 있지만, 모델 아키텍처나 데이터 처리 파이프라인을 조정하여 해결할 수 있습니다.
컴퓨터 비전의 맥락에서, 작업의 난이도에 비해 너무 작은 모델 변형을 사용할 때 종종 부적합이 발생합니다.
작업의 난이도(예: 고해상도 드론 이미지에서 작은 물체 감지)에 비해 너무 작은 모델 변형을 사용할 때 종종 발생합니다. 다음과 같은 경우
Python 예제는 더 작은 모델에서 더 크고 성능이 뛰어난
더 큰 모델로 전환하는 방법을 ultralytics 라이브러리를 사용하여 잠재적인 불충족 문제를 해결합니다.
from ultralytics import YOLO
# If 'yolo11n.pt' (Nano) is underfitting and yielding low accuracy,
# upgrade to a model with higher capacity like 'yolo11l.pt' (Large).
model = YOLO("yolo11l.pt")
# Train the larger model.
# Increasing epochs also helps the model converge if it was previously underfitting.
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
더 큰 Ultralytics YOLO11 모델로 전환하고 적절한 학습 기간을 보장함으로써 시스템은 복잡한 패턴을 학습하는 데 필요한 파라미터를 확보하여 효과적으로 효과적으로 학습할 수 있습니다. 매우 복잡한 작업의 경우, YOLO26 (현재 개발 중인 개발 중)와 같은 미래 아키텍처는 훨씬 더 높은 밀도와 정확도를 제공하는 것을 목표로 합니다. 모델이 더 이상 과소적합하지 않은지 확인하려면 항상 강력한 테스트 데이터 세트와 비교하여 평가하세요.

