Sintonizzati su YOLO Vision 2025!
25 settembre 2025
10:00 — 18:00 BST
Evento ibrido
Yolo Vision 2024
Glossario

Fine-tuning

Ottimizza i modelli di machine learning come Ultralytics YOLO per attività specifiche. Scopri metodi, applicazioni e best practice qui!

Il fine-tuning è una tecnica fondamentale nel machine learning (ML) che consiste nel prendere un modello pre-addestrato su un set di dati ampio e generale e addestrarlo ulteriormente su un set di dati più piccolo e specializzato. Questo processo, una forma di transfer learning, adatta la conoscenza appresa dal modello per eccellere in un compito specifico senza dover addestrare un modello da zero. Iniziando con un potente modello di base, gli sviluppatori possono ottenere elevate prestazioni con una quantità significativamente inferiore di dati e risorse computazionali, un concetto esplorato da istituzioni come lo Stanford AI Lab.

Come funziona il Fine-Tuning?

Il processo inizia con un modello i cui pesi sono già stati ottimizzati su un ampio set di dati come ImageNet per la visione o un enorme corpus di testo per i Large Language Models (LLM). Questo modello pre-addestrato comprende già le caratteristiche generali, come bordi e texture nelle immagini o grammatica e semantica nel testo. Il fine-tuning continua quindi il processo di addestramento, in genere utilizzando un learning rate inferiore, su un set di dati personalizzato su misura per l'applicazione di destinazione. Questo adatta i parametri del modello per specializzarsi nelle specifiche sfumature della nuova attività. Framework come PyTorch e TensorFlow forniscono ampi strumenti per l'implementazione di flussi di lavoro di fine-tuning.

Applicazioni nel mondo reale

Il fine-tuning è ampiamente utilizzato in computer vision (CV) e Natural Language Processing (NLP).

  • Analisi di immagini mediche: Un modello come Ultralytics YOLO11, pre-addestrato per il rilevamento di oggetti generico sul set di dati COCO, può essere ottimizzato su una raccolta specializzata di scansioni MRI per rilevare accuratamente i tumori. Questa personalizzazione è fondamentale per la creazione di soluzioni di AI affidabili nel settore sanitario.
  • Chatbot personalizzati: Un'azienda può ottimizzare un potente LLM come BERT sulla sua documentazione interna e sui log dell'assistenza clienti. Il modello risultante diventa un esperto sui prodotti dell'azienda, consentendo un chatbot altamente efficace e consapevole del contesto per il suo sito web. Molti di questi modelli sono disponibili su piattaforme come Hugging Face.

Fine-Tuning vs. Concetti Correlati

È importante distinguere il fine-tuning da altre tecniche di adattamento del modello:

  • Addestramento da zero: Ciò comporta l'inizializzazione di una rete neurale con pesi casuali e l'addestramento su un set di dati. Richiede enormi quantità di dati e potenza di calcolo (ad esempio, GPU) ed è generalmente meno efficiente della messa a punto di un modello pre-addestrato.
  • Parameter-Efficient Fine-Tuning (PEFT): PEFT è una raccolta di metodi che rappresentano un'evoluzione più efficiente in termini di risorse del fine-tuning. Invece di aggiornare tutti i pesi del modello, le tecniche PEFT come LoRA congelano il modello originale e addestrano solo un piccolo numero di nuovi parametri. Ciò riduce drasticamente i requisiti di memoria e archiviazione, rendendo più facile l'adattamento di modelli molto grandi provenienti da organizzazioni come Meta AI o Google.
  • Ottimizzazione del prompt (Prompt Tuning): Un metodo PEFT specifico in cui tutti i pesi del modello originale sono congelati. Invece di modificare il modello stesso, apprende speciali "soft prompt" (embedding addestrabili) che vengono aggiunti all'input per guidare l'output del modello per un'attività specifica.
  • Generazione aumentata dal recupero (RAG): Questa tecnica migliora l'output del modello fornendo conoscenza esterna al momento dell'inferenza, piuttosto che modificare i pesi del modello attraverso l'addestramento. RAG recupera informazioni rilevanti da un database e le aggiunge al prompt per produrre risposte più accurate e aggiornate.

Fine-Tuning con Ultralytics

Ultralytics semplifica il processo di fine-tuning dei suoi modelli YOLO all'avanguardia per applicazioni personalizzate. Gli utenti possono facilmente caricare i pesi pre-addestrati e iniziare l'addestramento sui propri dataset per attività come la classificazione delle immagini, il rilevamento o la segmentazione. La piattaforma Ultralytics HUB semplifica ulteriormente questo flusso di lavoro, fornendo una soluzione integrata per la gestione dei dataset, l'addestramento dei modelli e l'eventuale deployment. Per ottenere le migliori prestazioni, il fine-tuning viene spesso combinato con un'attenta ottimizzazione degli iperparametri.

Unisciti alla community di Ultralytics

Entra nel futuro dell'AI. Connettiti, collabora e cresci con innovatori globali

Iscriviti ora
Link copiato negli appunti