Scopri il Parameter-Efficient Fine-Tuning (PEFT) per ottimizzare modelli di grandi dimensioni come Ultralytics . Impara a ridurre i costi di calcolo e ottenere risultati SOTA sulle GPU.
Il Parameter-Efficient Fine-Tuning (PEFT) è una sofisticata strategia di ottimizzazione nel machine learning (ML) che consente la personalizzazione di modelli pre-addestrati di grandi dimensioni per compiti specifici, riducendo al minimo i costi computazionali. Poiché i moderni modelli di base sono cresciuti fino a comprendere miliardi di parametri, i metodi di addestramento tradizionali che aggiornano ogni peso nella rete sono diventati proibitivi in termini di hardware ed energia. Il PEFT affronta questa sfida congelando la stragrande maggioranza dei pesi del modello pre-addestrato e aggiornando solo un piccolo sottoinsieme di parametri o aggiungendo livelli di adattatori leggeri. Questo approccio abbassa la barriera all'ingresso, consentendo agli sviluppatori di ottenere risultati all'avanguardia su GPU di livello consumer senza richiedere data center su scala industriale.
Il principio fondamentale del PEFT si basa sul transfer learning, in cui un modello sfrutta le rappresentazioni delle caratteristiche apprese da enormi set di dati pubblici come ImageNet per risolvere nuovi problemi. In un flusso di lavoro standard, l'adattamento di un modello potrebbe comportare una "messa a punto completa", in cui la retropropagazione regola ogni parametro nella rete neurale.
Le tecniche PEFT, come LoRA (Low-Rank Adaptation), seguono un percorso diverso. Mantengono statica la "spina dorsale" pesante del modello, preservandone le conoscenze generali, e inseriscono piccole matrici addestrabili in livelli specifici. Ciò impedisce il catastrophic forgetting, un fenomeno in cui un modello perde le sue capacità originali mentre apprende nuove informazioni. Riducendo il numero di parametri addestrabili fino al 99%, il PEFT diminuisce significativamente i requisiti di archiviazione e consente di scambiare più adattatori specifici per attività all'interno di un unico modello di base durante l' inferenza in tempo reale.
Il PEFT è particolarmente utile nei settori in cui l'edge computing e la privacy dei dati sono fondamentali.
Ultralytics , l'efficienza dei parametri viene spesso ottenuta "congelando" i livelli iniziali di una rete. Ciò garantisce che gli estrattori di caratteristiche robusti rimangano invariati, mentre solo la testa o i livelli successivi si adattano alle nuove classi. Si tratta di un'implementazione pratica dei principi PEFT per il rilevamento di oggetti.
L'esempio seguente mostra come addestrare un modello YOLO26 congelando i primi 10 livelli della struttura di base per risparmiare risorse di calcolo:
from ultralytics import YOLO
# Load the YOLO26 model (latest stable version)
model = YOLO("yolo26n.pt")
# Train on a custom dataset with the 'freeze' argument
# freeze=10 keeps the first 10 layers static, updating only deeper layers
results = model.train(data="coco8.yaml", epochs=5, freeze=10)
Per i team che desiderano scalare questo processo, Ultralytics offre un'interfaccia unificata per gestire i set di dati, automatizzare l'annotazione e monitorare queste efficienti sessioni di formazione dal cloud.
Per selezionare la giusta strategia di adattamento del modello, è utile distinguere il PEFT da termini simili:
Democratizzando l'accesso all'intelligenza artificiale ad alte prestazioni, PEFT consente agli sviluppatori di creare strumenti specializzati per veicoli autonomi e produzione intelligente senza la necessità di infrastrutture supercomputer.