Yolo Vision Shenzhen
Shenzhen
Iscriviti ora
Glossario

Underfitting

Scopri come identificare e risolvere il sottodimensionamento nell'apprendimento automatico. Esplora le cause, gli indicatori e come ottimizzare i modelli Ultralytics per una maggiore precisione.

Il sottodimensionamento si verifica quando un modello di apprendimento automatico è troppo semplice o non ha la capacità di cogliere le tendenze e i modelli sottostanti all'interno dei dati di addestramento. Concettualmente, è analogo al tentativo di adattare una linea retta attraverso punti dati che formano una curva distinta; il modello non riesce a cogliere la complessità della relazione tra input e output. Poiché il modello non ha appreso i dati in modo efficace, mostra scarse prestazioni non solo sul set di addestramento, ma anche sui dati di validazione non visti, portando a una bassa accuratezza predittiva. Questo fenomeno è spesso il risultato di un elevato bias nell'IA, dove l'algoritmo fa ipotesi eccessivamente semplicistiche sulla funzione target.

Cause e indicatori

Diversi fattori possono portare a un modello sottodimensionato. La causa più comune è l'utilizzo di un'architettura di modello non sufficientemente complessa per il compito da svolgere, come l'applicazione della regressione lineare a dati non lineari. Anche una durata di addestramento insufficiente, in cui al modello non vengono concessi abbastanza epoch per convergere, impedisce un apprendimento adeguato. Inoltre, una regolarizzazioneeccessiva, una tecnica solitamente utilizzata per prevenire il problema opposto, può limitare eccessivamente il modello, impedendogli di catturare caratteristiche importanti .

Gli ingegneri possono identificare l'underfitting monitorando le funzioni di perdita durante l'addestramento. Se sia l'errore di addestramento che l'errore di convalida rimangono elevati e non diminuiscono in modo significativo, è probabile che il modello sia underfitting. In contrasto con un'efficace feature engineering, che aiuta i modelli a comprendere i dati, fornire troppo poche caratteristiche può anche privare il modello delle informazioni necessarie.

Underfitting vs. Overfitting

È fondamentale distinguere l'underfitting dal suo opposto, l' overfitting. Questi due concetti rappresentano i due estremi opposti del compromesso bias-varianza.

  • Underfitting (bias elevato): il modello è troppo rigido. Ha prestazioni scadenti sia sui dati di addestramento che su quelli di test perché non ha appreso il segnale di base.
  • Overfitting (alta varianza): il modello è troppo flessibile. Memorizza i dati di addestramento, compreso il rumore, ottenendo risultati eccezionali durante l'addestramento ma non riuscendo a generalizzare a nuovi esempi.

Trovare il "punto ottimale" tra questi due estremi è l'obiettivo principale dell' ottimizzazione del modello.

Applicazioni nel mondo reale

Comprendere il sottodimensionamento è fondamentale per sviluppare sistemi di IA affidabili in vari settori industriali.

  • Guida autonoma: nel contesto dei veicoli autonomi, un modello di rilevamento degli oggetti sottodimensionato potrebbe non riuscire a distinguere tra un pedone e un lampione in ambienti urbani complessi. Poiché il modello non dispone dei parametri necessari per apprendere le sottili differenze visive, mette a rischio la sicurezza dell'IA.
  • Diagnostica medica: quando si applica l' analisi delle immagini mediche per detect anomalie come i tumori, un modello eccessivamente semplice potrebbe non rilevare escrescenze piccole o irregolari. Se la rete neurale è troppo superficiale, non è in grado di apprendere le complesse strutture necessarie per un'elevata sensibilità e specificità, portando a diagnosi errate.

Affrontare il problema dell'underfitting con il codice

In visione computerizzata, l'underfitting si verifica spesso quando si utilizza una variante di modello troppo piccola per la difficoltà del compito (ad esempio, rilevare piccoli oggetti in immagini ad alta risoluzione riprese da droni). Il seguente Python L'esempio mostra come passare da un modello più piccolo a uno più grande e più potente utilizzando il ultralytics libreria per risolvere il potenziale underfitting.

from ultralytics import YOLO

# If 'yolo26n.pt' (Nano) is underfitting and yielding low accuracy,
# upgrade to a model with higher capacity like 'yolo26l.pt' (Large).
model = YOLO("yolo26l.pt")

# Train the larger model.
# Increasing epochs also helps the model converge if it was previously underfitting.
results = model.train(data="coco8.yaml", epochs=100, imgsz=640)

Passando a un modello Ultralytics più grande e garantendo una durata adeguata dell'addestramento, il sistema acquisisce i parametri necessari per apprendere modelli complessi, mitigando efficacemente l' underfitting. Per verificare che il modello non sia più sottoposto a underfitting, valutarlo sempre rispetto a un solido set di dati di test. Per la gestione dei set di dati e il monitoraggio degli esperimenti al fine di individuare tempestivamente l'underfitting, la Ultralytics offre strumenti completi per la visualizzazione e l'analisi.

Unitevi alla comunità di Ultralytics

Entra nel futuro dell'AI. Connettiti, collabora e cresci con innovatori globali

Iscriviti ora