Scopri come LoRA ottimizza i grandi modelli di IA come YOLO in modo efficiente, riducendo i costi e consentendo l'implementazione edge con risorse minime.
LoRA, o Low-Rank Adaptation, è una tecnica altamente efficiente utilizzata per adattare modelli di machine learning (ML) di grandi dimensioni e pre-addestrati per attività specifiche senza la necessità di riaddestrare l'intero modello. Originariamente descritto in un articolo dei ricercatori di Microsoft, LoRA è diventato una pietra angolare del Parameter-Efficient Fine-Tuning (PEFT). Riduce drasticamente i costi computazionali e i requisiti di archiviazione associati alla personalizzazione di modelli massicci, come i Large Language Models (LLM) e altri modelli di base.
Invece di aggiornare i miliardi di pesi del modello in un modello pre-addestrato, LoRA li congela tutti. Quindi inietta una coppia di piccole matrici addestrabili, chiamate adattatori a basso rango, in livelli specifici del modello, spesso all'interno del meccanismo di attenzione di un'architettura Transformer. Durante il processo di addestramento, vengono aggiornati solo i parametri di queste nuove matrici, molto più piccole. L'idea centrale è che le modifiche necessarie per adattare il modello a una nuova attività possono essere rappresentate con molti meno parametri di quelli contenuti nel modello originale. Questo sfrutta principi simili alla riduzione della dimensionalità per catturare le informazioni essenziali per l'adattamento in una forma compatta. Una volta completato l'addestramento, il piccolo adattatore può essere unito ai pesi originali o mantenuto separato per la commutazione modulare delle attività.
L'efficienza di LoRA lo rende ideale per un'ampia gamma di applicazioni, specialmente dove sono necessari più modelli personalizzati.
È utile distinguere LoRA da altre tecniche di adattamento del modello:
In sintesi, LoRA fornisce un modo potente ed efficiente in termini di risorse per personalizzare i grandi modelli di fondazione pre-addestrati per una vasta gamma di attività specifiche sia nell'elaborazione del linguaggio naturale (NLP) che nella computer vision, rendendo l'IA avanzata più pratica e accessibile. Questo approccio consente la facile gestione e distribuzione di molti modelli specializzati, un processo semplificato da piattaforme come Ultralytics HUB per la gestione dei cicli di vita dei modelli.