Sintonizzati su YOLO Vision 2025!
25 settembre 2025
10:00 — 18:00 BST
Evento ibrido
Yolo Vision 2024
Glossario

Ottimizzazione degli iperparametri

Padroneggia l'ottimizzazione degli iperparametri per ottimizzare i modelli ML come Ultralytics YOLO. Aumenta accuratezza, velocità e prestazioni con tecniche avanzate.

L'ottimizzazione degli iperparametri è il processo di ricerca delle impostazioni di configurazione ottimali per un modello di Machine Learning (ML). Queste impostazioni, note come iperparametri, sono esterne al modello e non possono essere apprese direttamente dai dati durante il processo di training. Invece, vengono impostate prima dell'inizio del training e controllano il comportamento del processo di training stesso. L'ottimizzazione efficace di questi iperparametri è un passo fondamentale per massimizzare le prestazioni del modello e garantire che si generalizzi bene a dati nuovi e non visti. Senza un'adeguata ottimizzazione, anche l'architettura del modello più avanzata può avere prestazioni inferiori.

Ottimizzazione degli iperparametri vs. Concetti correlati

È importante distinguere l'hyperparameter tuning da altri concetti chiave nel ML:

  • Algoritmo di ottimizzazione: Un algoritmo di ottimizzazione, come Adam o Stochastic Gradient Descent (SGD), è il motore che regola i parametri interni del modello (pesi e bias) durante l'addestramento per minimizzare la funzione di loss. L'ottimizzazione degli iperparametri, al contrario, implica la selezione delle migliori impostazioni esterne, che possono includere anche la scelta dell'algoritmo di ottimizzazione stesso.
  • Ricerca di architetture neurali (NAS): Mentre l'ottimizzazione degli iperparametri ottimizza le impostazioni per una struttura del modello data, NAS automatizza la progettazione dell'architettura del modello stesso, come la determinazione del numero e del tipo di layer. Entrambi sono forme di Automated Machine Learning (AutoML) e vengono spesso utilizzati insieme per costruire il miglior modello possibile.
  • Parametri del modello: Si tratta delle variabili interne di un modello, come i pesi e i bias in una rete neurale, che vengono apprese dai dati di addestramento attraverso la backpropagation. Gli iperparametri sono le impostazioni di livello superiore che regolano il modo in cui questi parametri vengono appresi.

Metodi di ottimizzazione e iperparametri comuni

I professionisti utilizzano diverse strategie per trovare i migliori valori di iperparametri. I metodi comuni includono la Grid Search, che prova esaustivamente ogni combinazione di valori specificati, la Random Search, che campiona le combinazioni in modo casuale, e metodi più avanzati come l'Ottimizzazione Bayesiana e gli Algoritmi Evolutivi.

Alcuni degli iperparametri più frequentemente ottimizzati includono:

  • Tasso di apprendimento: Controlla la quantità di regolazione dei pesi del modello rispetto al gradiente di perdita.
  • Batch Size: Il numero di esempi di training utilizzati in una singola iterazione.
  • Numero di Epoche: Il numero di volte in cui l'intero set di dati di addestramento viene passato attraverso il modello.
  • Intensità della Data Augmentation: Il grado di trasformazioni applicate ai dati di training, come rotazione, ridimensionamento o spostamenti di colore. La libreria Albumentations è uno strumento popolare per questo.

Applicazioni nel mondo reale

L'ottimizzazione degli iperparametri viene applicata in vari ambiti per ottenere le massime prestazioni:

Ottimizzazione degli iperparametri con Ultralytics

Ultralytics fornisce strumenti per semplificare l'ottimizzazione degli iperparametri per Ultralytics YOLO modelli. I class Tuner Ultralytics, documentato nella guida all'ottimizzazione degli iperparametri, automatizza il processo utilizzando algoritmi evolutivi. L'integrazione con piattaforme come Ray Tune offre ulteriori funzionalità per strategie di ricerca distribuite e avanzate, aiutando gli utenti a ottimizzare i propri modelli in modo efficiente per set di dati specifici (come COCO) e task. Gli utenti possono sfruttare piattaforme come Ultralytics HUB per un monitoraggio e una gestione semplificati degli esperimenti, che spesso è una parte fondamentale del rispetto delle best practice per addestramento del modello. Librerie open source popolari come Optuna e Hyperopt sono ampiamente utilizzati nella comunità ML per questo scopo.

Unisciti alla community di Ultralytics

Entra nel futuro dell'AI. Connettiti, collabora e cresci con innovatori globali

Iscriviti ora
Link copiato negli appunti