Glossario

Messa a punto efficiente dei parametri (PEFT)

Scoprite il Parameter-Efficient Fine-Tuning (PEFT) per adattare modelli AI di grandi dimensioni con risorse minime. Risparmiate sui costi, evitate l'overfitting e ottimizzate l'implementazione!

Il Parameter-Efficient Fine-Tuning (PEFT) è un insieme di tecniche utilizzate nell'apprendimento automatico per adattare modelli pre-addestrati di grandi dimensioni a nuovi compiti specifici senza la necessità di ri-addestrare l'intero modello. Poiché i modelli di base in campi come l'elaborazione del linguaggio naturale (NLP) e la visione artificiale (CV) crescono fino a miliardi di parametri, la messa a punto completa diventa computazionalmente costosa e richiede una notevole quantità di dati per ogni nuovo compito. PEFT risolve questo problema congelando la maggior parte dei pesi del modello pre-addestrato e addestrando solo un piccolo numero di parametri aggiuntivi o esistenti. Questo approccio riduce drasticamente i costi di calcolo e di archiviazione, diminuisce il rischio di dimenticanza catastrofica (quando un modello dimentica le sue capacità originali) e rende fattibile la personalizzazione di un singolo modello di grandi dimensioni per molte applicazioni diverse.

Come funziona il PEFT?

Il principio fondamentale del PEFT è quello di apportare modifiche mirate e minime a un modello pre-addestrato. Invece di aggiornare ogni parametro, i metodi PEFT introducono un piccolo insieme di parametri addestrabili o selezionano un piccolo sottoinsieme di quelli esistenti da aggiornare durante l'addestramento. Si tratta di una forma di apprendimento per trasferimento che ottimizza l'efficienza. Esistono diversi metodi PEFT, ognuno con una strategia diversa:

  • LoRA (Low-Rank Adaptation): Questa tecnica inietta piccole matrici a basso rango addestrabili negli strati del modello pre-addestrato, spesso all'interno del meccanismo di attenzione. Queste matrici "adattatrici" sono significativamente più piccole delle matrici di peso originali, rendendo l'addestramento veloce ed efficiente. Il documento di ricerca originale di LoRA fornisce maggiori dettagli tecnici.
  • Regolazione dei prompt: Invece di modificare l'architettura del modello, questo metodo mantiene il modello completamente congelato e apprende una serie di "suggerimenti morbidi" o vettori di incorporamento addestrabili. Questi vettori vengono aggiunti alla sequenza di input per guidare l'output del modello per un compito specifico, come descritto nel documento di base.
  • Regolazione degli adattatori: Questo metodo prevede l'inserimento di piccoli moduli di rete neurale completamente connessi, noti come "adattatori", tra gli strati del modello pre-addestrato. Solo i parametri di questi nuovi adattatori vengono addestrati.

Questi e altri metodi sono ampiamente accessibili attraverso framework come la libreria Hugging Face PEFT, che ne semplifica l'implementazione.

PEFT e concetti correlati

È importante differenziare il PEFT da altre strategie di adattamento del modello:

  • Messa a punto completa: A differenza del PEFT, la messa a punto completa aggiorna tutti i pesi di un modello pre-addestrato. Si tratta di un'operazione ad alta intensità di risorse, che richiede una GPU potente e una grande capacità di memorizzazione per ogni versione del modello ottimizzato.
  • Ingegneria dei prompt: Questa tecnica prevede la progettazione manuale di prompt efficaci basati su testo per guidare il comportamento di un modello. Non prevede l'addestramento o l'aggiornamento dei parametri; si tratta semplicemente di creare l'input per ottenere l'output desiderato da un modello congelato.
  • Distillazione della conoscenza: Si tratta di addestrare un modello "studente" più piccolo per imitare il comportamento di un modello "insegnante" più grande e pre-addestrato. Sebbene crei un modello più piccolo, il processo in sé può essere comunque intensivo dal punto di vista computazionale.

Applicazioni del mondo reale

PEFT consente l'applicazione pratica di modelli di grandi dimensioni in vari ambiti:

In sostanza, il Parameter-Efficient Fine-Tuning rende i modelli di IA all'avanguardia più versatili ed economici da adattare, democratizzando l'accesso a potenti capacità di IA per un'ampia gamma di applicazioni specifiche.

Unitevi alla comunità di Ultralytics

Entrate a far parte del futuro dell'IA. Connettetevi, collaborate e crescete con gli innovatori globali.

Iscriviti ora
Link copiato negli appunti