Sintonizzati su YOLO Vision 2025!
25 settembre 2025
10:00 — 18:00 BST
Evento ibrido
Yolo Vision 2024
Glossario

LoRA (Low-Rank Adaptation)

Scopri come LoRA ottimizza i grandi modelli di IA come YOLO in modo efficiente, riducendo i costi e consentendo l'implementazione edge con risorse minime.

LoRA, o Low-Rank Adaptation, è una tecnica altamente efficiente utilizzata per adattare modelli di machine learning (ML) di grandi dimensioni e pre-addestrati per attività specifiche senza la necessità di riaddestrare l'intero modello. Originariamente descritto in un articolo dei ricercatori di Microsoft, LoRA è diventato una pietra angolare del Parameter-Efficient Fine-Tuning (PEFT). Riduce drasticamente i costi computazionali e i requisiti di archiviazione associati alla personalizzazione di modelli massicci, come i Large Language Models (LLM) e altri modelli di base.

Come funziona LoRA

Invece di aggiornare i miliardi di pesi del modello in un modello pre-addestrato, LoRA li congela tutti. Quindi inietta una coppia di piccole matrici addestrabili, chiamate adattatori a basso rango, in livelli specifici del modello, spesso all'interno del meccanismo di attenzione di un'architettura Transformer. Durante il processo di addestramento, vengono aggiornati solo i parametri di queste nuove matrici, molto più piccole. L'idea centrale è che le modifiche necessarie per adattare il modello a una nuova attività possono essere rappresentate con molti meno parametri di quelli contenuti nel modello originale. Questo sfrutta principi simili alla riduzione della dimensionalità per catturare le informazioni essenziali per l'adattamento in una forma compatta. Una volta completato l'addestramento, il piccolo adattatore può essere unito ai pesi originali o mantenuto separato per la commutazione modulare delle attività.

Applicazioni nel mondo reale

L'efficienza di LoRA lo rende ideale per un'ampia gamma di applicazioni, specialmente dove sono necessari più modelli personalizzati.

  • Personalizzazione dei chatbot: Un'azienda può prendere un LLM potente e generico e utilizzare LoRA per addestrarlo sulla sua knowledge base interna. Questo crea un chatbot specializzato per il servizio clienti che comprende la terminologia specifica dell'azienda senza l'enorme costo del fine-tuning completo.
  • AI Art e trasferimento di stile: Artisti e designer utilizzano LoRA per adattare i modelli di AI generativa come Stable Diffusion a uno stile artistico specifico. Addestrando un adattatore su un piccolo set di immagini proprie, possono generare nuova arte che imita la loro estetica unica, una pratica popolare su piattaforme come Hugging Face.

LoRA vs. Concetti correlati

È utile distinguere LoRA da altre tecniche di adattamento del modello:

  • Fine-tuning completo: Questo metodo aggiorna tutti i pesi di un modello pre-addestrato su un nuovo set di dati. Sebbene spesso efficace, richiede notevoli risorse computazionali (GPU) e spazio di archiviazione per ogni modello adattato. LoRA, al contrario, congela i pesi originali e addestra solo le piccole matrici adattatrici iniettate. Maggiori dettagli sono disponibili nella nostra voce del glossario sul fine-tuning e nella panoramica sul fine-tuning di NVIDIA.
  • Prompt Tuning: Questa tecnica mantiene i pesi del modello completamente congelati e apprende invece dei "soft prompt" continui (vettori aggiunti agli embedding di input) per guidare il comportamento del modello per attività specifiche. A differenza di LoRA, non modifica alcun peso del modello, ma si concentra puramente sull'adattamento della rappresentazione dell'input. Ulteriori informazioni su prompt tuning e prompt engineering.
  • Altri metodi PEFT: LoRA è solo una tecnica all'interno del più ampio campo del Parameter-Efficient Fine-Tuning (PEFT). Altri metodi includono Adapter Tuning (simile ma con strutture di adapter leggermente diverse), Prefix Tuning e IA³, ognuno dei quali offre diversi compromessi in termini di efficienza dei parametri e prestazioni. Questi metodi sono comunemente disponibili in framework come la libreria Hugging Face PEFT.

In sintesi, LoRA fornisce un modo potente ed efficiente in termini di risorse per personalizzare i grandi modelli di fondazione pre-addestrati per una vasta gamma di attività specifiche sia nell'elaborazione del linguaggio naturale (NLP) che nella computer vision, rendendo l'IA avanzata più pratica e accessibile. Questo approccio consente la facile gestione e distribuzione di molti modelli specializzati, un processo semplificato da piattaforme come Ultralytics HUB per la gestione dei cicli di vita dei modelli.

Unisciti alla community di Ultralytics

Entra nel futuro dell'AI. Connettiti, collabora e cresci con innovatori globali

Iscriviti ora
Link copiato negli appunti