Scopri come identificare e risolvere il sottodimensionamento nell'apprendimento automatico. Esplora le cause, gli indicatori e come ottimizzare i modelli Ultralytics per una maggiore precisione.
Il sottodimensionamento si verifica quando un modello di apprendimento automatico è troppo semplice o non ha la capacità di cogliere le tendenze e i modelli sottostanti all'interno dei dati di addestramento. Concettualmente, è analogo al tentativo di adattare una linea retta attraverso punti dati che formano una curva distinta; il modello non riesce a cogliere la complessità della relazione tra input e output. Poiché il modello non ha appreso i dati in modo efficace, mostra scarse prestazioni non solo sul set di addestramento, ma anche sui dati di validazione non visti, portando a una bassa accuratezza predittiva. Questo fenomeno è spesso il risultato di un elevato bias nell'IA, dove l'algoritmo fa ipotesi eccessivamente semplicistiche sulla funzione target.
Diversi fattori possono portare a un modello sottodimensionato. La causa più comune è l'utilizzo di un'architettura di modello non sufficientemente complessa per il compito da svolgere, come l'applicazione della regressione lineare a dati non lineari. Anche una durata di addestramento insufficiente, in cui al modello non vengono concessi abbastanza epoch per convergere, impedisce un apprendimento adeguato. Inoltre, una regolarizzazioneeccessiva, una tecnica solitamente utilizzata per prevenire il problema opposto, può limitare eccessivamente il modello, impedendogli di catturare caratteristiche importanti .
Gli ingegneri possono identificare l'underfitting monitorando le funzioni di perdita durante l'addestramento. Se sia l'errore di addestramento che l'errore di convalida rimangono elevati e non diminuiscono in modo significativo, è probabile che il modello sia underfitting. In contrasto con un'efficace feature engineering, che aiuta i modelli a comprendere i dati, fornire troppo poche caratteristiche può anche privare il modello delle informazioni necessarie.
È fondamentale distinguere l'underfitting dal suo opposto, l' overfitting. Questi due concetti rappresentano i due estremi opposti del compromesso bias-varianza.
Trovare il "punto ottimale" tra questi due estremi è l'obiettivo principale dell' ottimizzazione del modello.
Comprendere il sottodimensionamento è fondamentale per sviluppare sistemi di IA affidabili in vari settori industriali.
In visione computerizzata, l'underfitting si verifica spesso
quando si utilizza una variante di modello troppo piccola per la difficoltà del compito (ad esempio, rilevare piccoli oggetti in
immagini ad alta risoluzione riprese da droni). Il seguente Python L'esempio mostra come
passare da un modello più piccolo a uno più grande e più potente utilizzando il ultralytics libreria per risolvere
il potenziale underfitting.
from ultralytics import YOLO
# If 'yolo26n.pt' (Nano) is underfitting and yielding low accuracy,
# upgrade to a model with higher capacity like 'yolo26l.pt' (Large).
model = YOLO("yolo26l.pt")
# Train the larger model.
# Increasing epochs also helps the model converge if it was previously underfitting.
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)
Passando a un modello Ultralytics più grande e garantendo una durata adeguata dell'addestramento, il sistema acquisisce i parametri necessari per apprendere modelli complessi, mitigando efficacemente l' underfitting. Per verificare che il modello non sia più sottoposto a underfitting, valutarlo sempre rispetto a un solido set di dati di test. Per la gestione dei set di dati e il monitoraggio degli esperimenti al fine di individuare tempestivamente l'underfitting, la Ultralytics offre strumenti completi per la visualizzazione e l'analisi.