Yolo Vision Shenzhen
Shenzhen
Iscriviti ora
Glossario

LoRA (Low-Rank Adaptation)

Scoprite come LoRA mette a punto in modo efficiente modelli di AI di grandi dimensioni come YOLO , riducendo i costi e consentendo l'implementazione edge con risorse minime.

LoRA, o Low-Rank Adaptation, è una tecnica rivoluzionaria nel campo dell'apprendimento automatico (ML). dell'apprendimento automatico (ML), progettata per perfezionare modelli pre-addestrati di grandi dimensioni con un'efficienza eccezionale. Con l'esplosione delle dimensioni dei moderni modelli di base sono esplose - spesso contengono miliardi di parametri, il loro riaddestramento per compiti specifici è diventato computazionalmente proibitivo per molti ricercatori e sviluppatori. e sviluppatori. LoRA risolve questo problema congelando i pesi pesi del modello originale e iniettando matrici più piccole, addestrabili matrici a basso rango nell'architettura. Questo approccio riduce drasticamente il numero di parametri addestrabili, riducendo i requisiti di memoria e consentendo un adattamento efficace del modello su hardware di livello consumer, come una GPU standard. GPU (Graphics Processing Unit).

Come funziona LoRA

L'innovazione principale di LoRA risiede nella sua capacità di evitare la necessità di riqualificare completamente il modello. Nella tradizionale tradizionale, ogni peso di una rete neurale viene aggiornato ogni peso di una rete neurale viene aggiornato durante la retropropagazione, il che richiede la memorizzazione di enormi stati dell'ottimizzatore. LoRA, invece, mantiene il modello pre-addestrato modello pre-addestrato. Introduce coppie di matrici di decomposizione del rango in strati specifici, in genere all'interno del meccanismo di attenzione della rete neurale. meccanismo di attenzione delle architetture di trasformatori.

Durante il processo di addestramento, vengono aggiornate solo queste piccole matrici di adattamento. vengono aggiornate. Poiché queste matrici sono "a basso rango", cioè hanno un numero di dimensioni significativamente inferiore a quello degli strati del modello completo, l'overhead computazionale è minimo. Questo concetto si ispira ai principi di principi di riduzione della dimensionalità, presuppone che l'adattamento a un nuovo compito si basi su un sottospazio a bassa dimensione dei parametri del modello. Questo rende LoRA una pietra miliare di Parameter-Efficient Fine-Tuning (PEFT), consentendo la creazione di modelli specifici per il compito che sono solo una frazione della dimensione del checkpoint originale.

Il seguente snippet Python mostra come avviare un'esecuzione di allenamento standard utilizzando il metodo ultralytics pacchetto. Sebbene questo comando esegua l'addestramento completo per impostazione predefinita, le configurazioni avanzate possono tecniche PEFT, come LoRA, per ottimizzare il processo per specifici insiemi di dati personalizzati.

from ultralytics import YOLO

# Load a pre-trained YOLO11 model
model = YOLO("yolo11n.pt")

# Train the model on a specific dataset
# LoRA strategies can be applied to freeze the backbone and train adapters
results = model.train(data="coco8.yaml", epochs=5, imgsz=640)

Applicazioni nel mondo reale

L'efficienza del LoRA ha sbloccato nuove possibilità in vari settori dell'intelligenza artificiale (AI). Intelligenza artificiale (AI).

  • Modelli linguistici personalizzati di grandi dimensioni (LLM): Le organizzazioni utilizzano LoRA per adattare modelli linguistici di grandi dimensioni di uso generale modelli linguistici di grandi dimensioni (LLM) per settori di nicchia. settori di nicchia. Ad esempio, uno studio legale potrebbe addestrare un chatbot su file di casi proprietari. Il documento originale di Microsoft LoRA ha dimostrato che questo metodo mantiene prestazioni prestazioni paragonabili alla messa a punto completa, riducendo al contempo le esigenze di archiviazione fino a 10.000 volte.
  • Arte AI generativa: Nel regno dell'IA generativa, gli artisti generativa, gli artisti utilizzano LoRA per insegnare a generare immagini modelli di generazione di immagini come la Diffusione Stabile stili, personaggi o concetti. Addestrandosi su un piccolo insieme di immagini, creano "file LoRA" leggeri (spesso pochi megabyte) che possono essere LoRA" leggeri (spesso di pochi megabyte) che possono essere inseriti nel modello di base per modificarne drasticamente lo stile di uscita. drammaticamente.
  • Visione artificiale efficiente: Per compiti come il di rilevamento degli oggetti, gli ingegneri possono adattare potenti modelli di modelli di visione per detect oggetti rari o difetti specifici nel controllo di qualità della produzione. Questo è cruciale per l'implementazione ai margini, dove i dispositivi hanno una memoria limitata. Le architetture future, come l'imminente YOLO26, mirano a integrare ulteriormente tale efficienza per applicazioni in tempo reale.

LoRA vs. Concetti correlati

Per comprendere appieno la LoRA, è utile distinguerla da altre strategie di adattamento:

  • Messa a punto completa: Questo metodo tradizionale aggiorna tutti i parametri di un modello. Se da un lato consente di ottenere la massima plasticità, dall'altro è risorse e incline alla "dimenticanza catastrofica", in cui il modello perde le conoscenze apprese in precedenza. conoscenze apprese in precedenza. È possibile esplorare suggerimenti per l'addestramento del modello per gestire queste sfide.
  • Ingegneria tempestiva: A differenza di LoRA, che modifica i pesi del modello (tramite adattatori), l'ingegneria dei prompt si concentra sulla creazione di input testuali efficaci per guidare il comportamento di un modello congelato. di testo efficaci per guidare il comportamento di un modello congelato. Non richiede addestramento, ma può essere limitata nella gestione di compiti complessi, compiti complessi e specifici del dominio rispetto all'adattamento dei pesi.
  • Trasferimento di apprendimento: Si tratta del concetto più ampio di prendere le conoscenze da un compito e applicarle a un altro. LoRA è un'implementazione specifica e di apprendimento per trasferimento.
  • Sintonizzazione del prompt: Questa tecnica apprende i "suggerimenti morbidi" (vettori) aggiunti alla sequenza di ingresso. Anche se è efficiente dal punto di vista dei parametri, opera sulle incorporazioni in ingresso piuttosto che sugli strati interni del modello, il che può talvolta limitarne l'espressività rispetto all'integrazione profonda di LoRA. limitare la sua espressività rispetto all'integrazione profonda di LoRA.

Democratizzando l'accesso alla personalizzazione dei modelli, LoRA consente agli sviluppatori di creare strumenti specializzati per l'analisi delle immagini mediche. analisi di immagini mediche, conservazione della fauna selvatica e veicoli autonomi senza richiedere l'infrastruttura infrastrutture di un gigante tecnologico. Mentre il settore si muove verso piattaforme versatili, come l'imminente Ultralytics Platform, le tecniche che disaccoppiano i modelli da quelli di Ultralytics produttori sono molto utili. le tecniche che disaccoppiano le dimensioni del modello dal costo dell'addestramento rimarranno essenziali per l'innovazione dell'IA scalabile.

Unitevi alla comunità di Ultralytics

Entra nel futuro dell'AI. Connettiti, collabora e cresci con innovatori globali

Iscriviti ora