Sintonizzati su YOLO Vision 2025!
25 settembre 2025
10:00 — 18:00 BST
Evento ibrido
Yolo Vision 2024
Glossario

Fine-tuning efficiente in termini di parametri (PEFT)

Scopri il Parameter-Efficient Fine-Tuning (PEFT) per adattare modelli di IA di grandi dimensioni con risorse minime. Risparmia sui costi, previeni l'overfitting e ottimizza la distribuzione!

Il Parameter-Efficient Fine-Tuning (PEFT) è un insieme di tecniche utilizzate nel machine learning per adattare modelli pre-addestrati di grandi dimensioni a nuove attività specifiche senza la necessità di riaddestrare l'intero modello. Man mano che i modelli di base in campi come l'elaborazione del linguaggio naturale (NLP) e la computer vision (CV) crescono fino a miliardi di parametri, il fine-tuning completo diventa costoso dal punto di vista computazionale e richiede una notevole quantità di spazio di archiviazione dati per ogni nuova attività. Il PEFT affronta questo problema congelando la stragrande maggioranza dei pesi del modello pre-addestrato e addestrando solo un piccolo numero di parametri aggiuntivi o esistenti. Questo approccio riduce drasticamente i costi computazionali e di archiviazione, diminuisce il rischio di catastrophic forgetting (dove un modello dimentica le sue capacità originali) e rende fattibile la personalizzazione di un singolo modello di grandi dimensioni per molte applicazioni diverse.

Come funziona PEFT?

Il principio fondamentale alla base di PEFT è apportare modifiche mirate e minime a un modello pre-addestrato. Invece di aggiornare ogni parametro, i metodi PEFT introducono un piccolo insieme di parametri addestrabili o selezionano un minuscolo sottoinsieme di quelli esistenti da aggiornare durante l'addestramento. Questa è una forma di transfer learning che ottimizza l'efficienza. Esistono diversi metodi PEFT popolari, ognuno con una strategia diversa:

  • LoRA (Low-Rank Adaptation): Questa tecnica inietta piccole matrici di basso rango addestrabili nei livelli del modello pre-addestrato, spesso all'interno del meccanismo di attenzione. Queste matrici "adattatore" sono significativamente più piccole delle matrici di peso originali, rendendo l'addestramento veloce ed efficiente. Il paper di ricerca originale su LoRA fornisce maggiori dettagli tecnici.
  • Ottimizzazione del prompt (Prompt Tuning): Invece di modificare l'architettura del modello, questo metodo mantiene il modello completamente congelato e apprende un insieme di "soft prompt" o vettori di embedding addestrabili. Questi vettori vengono aggiunti alla sequenza di input per guidare l'output del modello per un'attività specifica, come dettagliato nel suo articolo fondamentale.
  • Adapter Tuning: Questo metodo prevede l'inserimento di piccoli moduli di rete neurale completamente connessi, noti come "adapter", tra i livelli del modello pre-addestrato. Vengono addestrati solo i parametri di questi nuovi adapter.

Questi e altri metodi sono ampiamente accessibili tramite framework come la libreria Hugging Face PEFT, che ne semplifica l'implementazione.

PEFT vs. Concetti correlati

È importante distinguere PEFT da altre strategie di adattamento del modello:

  • Fine-tuning completo: A differenza del PEFT, il fine-tuning completo aggiorna tutti i pesi di un modello pre-addestrato. Questo richiede molte risorse, necessitando di una GPU potente e di un ampio spazio di archiviazione per ogni versione del modello sottoposta a fine-tuning.
  • Ingegneria del prompt (Prompt Engineering): Questa tecnica prevede la progettazione manuale di prompt efficaci basati su testo per guidare il comportamento di un modello. Non comporta alcun addestramento o aggiornamento dei parametri; si tratta puramente di creare l'input per ottenere l'output desiderato da un modello congelato.
  • Knowledge Distillation: Questo implica l'addestramento di un modello "studente" più piccolo per imitare il comportamento di un modello "insegnante" più grande e pre-addestrato. Pur creando un modello più piccolo, il processo stesso può essere ancora computazionalmente intensivo.

Applicazioni nel mondo reale

PEFT consente l'applicazione pratica di modelli di grandi dimensioni in vari domini:

In sostanza, il Parameter-Efficient Fine-Tuning rende i modelli di IA all'avanguardia più versatili ed economici da adattare, democratizzando l'accesso a potenti capacità di IA per una vasta gamma di applicazioni specifiche.

Unisciti alla community di Ultralytics

Entra nel futuro dell'AI. Connettiti, collabora e cresci con innovatori globali

Iscriviti ora
Link copiato negli appunti