Yolo Vision Shenzhen
Shenzhen
Iscriviti ora
Glossario

Ottimizzazione degli iperparametri

Padroneggiate la regolazione degli iperparametri per ottimizzare i modelli ML come Ultralytics YOLO. Aumentate l'accuratezza, la velocità e le prestazioni con tecniche esperte.

La regolazione degli iperparametri è il processo sistematico di scoperta dell'insieme ottimale di variabili di configurazione esterne, note come iperparametri, che regolano l'addestramento di un modello di apprendimento automatico (ML). modello di apprendimento automatico (ML). A differenza dei parametri interni parametri interni del modello, come i weights and biases , che vengono appresi direttamente dai dati di dati di addestramento durante la fase di apprendimento, gli iperparametri vengono impostati prima dell'addestramento e rimangono costanti durante il processo. Questa fase di ottimizzazione è è fondamentale perché le impostazioni predefinite di una rete neurale rete neurale raramente producono le migliori prestazioni migliori possibili per un set di dati specifico. Regolando con precisione questi controlli, gli scienziati dei dati possono migliorare in modo significativo la precisione del modello precisione del modello, ridurre il tempo di convergenza e prevenire problemi come l'overfitting. overfitting.

Il ruolo degli iperparametri

Per comprendere la sintonizzazione, è utile visualizzare un modello come una macchina complessa con vari quadranti e interruttori. Mentre la macchina impara da sola a trasformare le materie prime (dati) in un prodotto finito (previsioni), l'operatore deve prima impostare la velocità, la temperatura e la pressione. deve prima impostare la velocità, la temperatura e la pressione. Questi "quadranti" sono gli iperparametri.

Gli iperparametri comuni che sono spesso oggetto di ottimizzazione includono:

  • Tasso di apprendimento: Spesso considerata l'impostazione più l'impostazione più critica, questa determina la dimensione del passo che l'algoritmo di ottimizzazione algoritmo di ottimizzazione mentre si muove verso un minimo della funzione di perdita. Un tasso troppo troppo alta può far sì che il modello superi la soluzione ottimale, mentre una velocità troppo bassa porta a un addestramento lento. formazione.
  • Dimensione del lotto: Definisce il numero di di esempi di addestramento utilizzati in un'iterazione. La regolazione di questo parametro influisce sulla stabilità della stima del gradiente e sulla i requisiti di memoria della GPU.
  • Epoche: il numero di volte che l'algoritmo di apprendimento algoritmo di apprendimento lavora sull'intero set di dati. Trovare il giusto equilibrio aiuta a evitare l 'underfitting (un numero troppo basso di epoche) e overfitting (troppe epoche).
  • Architettura della rete: Decisioni relative al numero di strati nascosti, al numero di neuroni per strato o al tipo specifico di rete. o il tipo specifico di funzione di attivazione (ad esempio, ReLU, SiLU). funzione di attivazione (per esempio, ReLU, SiLU) sono sono anche iperparametri architetturali.

Tecniche comuni di messa a punto

Trovare la combinazione perfetta di impostazioni può essere difficile a causa del vasto spazio di ricerca. I professionisti impiegano diversi metodi standard per navigare in questo spazio altamente dimensionale:

  • Ricerca a griglia: Questo metodo esaustivo metodo valuta un modello per ogni combinazione di algoritmi e parametri specificati in una griglia. Pur essendo approfondito, è è computazionalmente costoso e spesso inefficiente per grandi insiemi di parametri.
  • Ricerca casuale: Invece di testare ogni combinazione, questa tecnica seleziona combinazioni casuali di iperparametri per addestrare il modello. La ricerca ricerca suggerisce che la ricerca casuale è spesso più efficiente della ricerca a griglia perché non tutti gli iperparametri sono ugualmente importanti per le prestazioni del modello. importanti per le prestazioni del modello.
  • Ottimizzazione bayesiana: Si tratta di un approccio approccio basato su modelli probabilistici che costruisce un modello surrogato della funzione obiettivo. Cerca di prevedere quali iperparametri daranno i migliori risultati in base alle valutazioni passate, concentrandosi sulle aree più promettenti dello spazio di ricerca. dello spazio di ricerca.
  • Algoritmi evolutivi: Ispirato all'evoluzione biologica, questo metodo utilizza meccanismi come la mutazione e il crossover per far evolvere una popolazione di insiemi di iperparametri nel corso delle generazioni. di insiemi di iperparametri nel corso delle generazioni. Questo è il metodo principale utilizzato dal sintonizzatore Ultralytics per ottimizzare modelli come YOLO11.

Regolazione dell'iperparametro rispetto all'addestramento del modello

È essenziale distinguere tra tuning e training, in quanto si tratta di fasi distinte del ciclo di vita di MLOPS. fasi distinte del ciclo di vita di MLOPS:

  • Formazione del modello: Il processo in cui il modello itera su dati etichettati per imparare i parametri interni (pesi e e bias) tramite backpropagation. L'obiettivo è quello di minimizzare l'errore sul set di addestramento.
  • Regolazione degli iperparametri: Il metaprocesso di selezione delle impostazioni strutturali e operative prima dell'inizio dell'addestramento. prima dell' inizio dell'addestramento. L'obiettivo è quello di massimizzare una metrica di validazione, come ad esempio precisione media (mAP), su dati non visti.

Applicazioni nel mondo reale

La messa a punto di modelli efficaci è fondamentale per l'implementazione di solide soluzioni di soluzioni di intelligenza artificiale in vari settori.

Agricoltura di precisione

Nell'ambito dell'intelligenza artificiale in agricoltura, i droni equipaggiati con modelli di modelli di visione computerizzata per monitorare la salute delle colture. Questi modelli vengono eseguiti su dispositivi di edge computing con batteria e potenza di potenza di elaborazione. La regolazione degli iperparametri viene utilizzata per ottimizzare l'architettura del modello (ad esempio, riducendo la profondità dei livelli) e la risoluzione degli input. e la risoluzione dell'ingresso. In questo modo si garantisce che il sistema bilanci un'elevata velocità di inferenza con un'accuratezza di rilevamento sufficiente per identificare erbe infestanti o parassiti in tempo reale.

Diagnostica medica

Per l'IA nel settore sanitario, in particolare nell'analisi analisi delle immagini mediche, i falsi negativi possono possono essere pericolosi per la vita. Quando si rilevano anomalie nelle radiografie o nelle risonanze magnetiche, gli ingegneri mettono a punto in modo aggressivo gli iperparametri relativi alla pipeline di incremento dei dati e alla ponderazione delle classi nella funzione di perdita. Questa messa a punto massimizza il richiamo del modello modello, assicurando che anche i segni più impercettibili di patologia vengano patologia siano segnalati per l'esame umano.

Tuning automatizzato con Ultralytics

Il ultralytics semplifica la complessità dell'ottimizzazione includendo una libreria incorporata tuner che utilizza algoritmi genetici. Questo permette agli utenti di cercare automaticamente i migliori iperparametri migliori per i loro set di dati personalizzati, senza dover regolare manualmente i valori per ogni sessione di allenamento.

L'esempio seguente mostra come avviare la sintonizzazione degli iperparametri per un modello YOLO11 . Il sintonizzatore modificherà iperparametri (come il tasso di apprendimento, il momentum e il decadimento del peso) in diverse iterazioni per massimizzare le prestazioni.

from ultralytics import YOLO

# Initialize a YOLO11 model (using the 'nano' weight for speed)
model = YOLO("yolo11n.pt")

# Start tuning hyperparameters on the COCO8 dataset
# This will run for 10 epochs per iteration, for a total of 30 iterations
model.tune(data="coco8.yaml", epochs=10, iterations=30, optimizer="AdamW", plots=False)

Per gli utenti avanzati che gestiscono esperimenti su larga scala, l'integrazione con piattaforme dedicate come Ray Tune o l'utilizzo di Weights & Biases per la visualizzazione possono semplificare ulteriormente il flusso di lavoro di messa a punto. Con l'imminente ricerca e sviluppo di architetture come YOLO26, la messa a punto automatizzata rimane una pietra miliare per raggiungere in modo efficiente lo stato dell'arte delle prestazioni.

Unitevi alla comunità di Ultralytics

Entra nel futuro dell'AI. Connettiti, collabora e cresci con innovatori globali

Iscriviti ora