Sintonizzati su YOLO Vision 2025!
25 settembre 2025
10:00 — 18:00 BST
Evento ibrido
Yolo Vision 2024
Glossario

Prompt Tuning

Ottimizza i modelli linguistici di grandi dimensioni in modo efficiente con il Prompt Tuning: riduci i costi, risparmia risorse e ottieni un'adattabilità specifica per le attività senza sforzo.

La regolazione del prompt è una tecnica potente ed efficiente per adattare modelli di grandi dimensioni pre-addestrati, come i Large Language Models (LLM), a nuove attività senza alterare i pesi del modello originale. È una forma di Fine-Tuning efficiente in termini di parametri (PEFT) che mantiene congelati i miliardi di parametri nel modello di base e apprende invece un piccolo insieme di "soft prompt" specifici per l'attività. Questi soft prompt non sono testo leggibile dall'uomo, ma sono incorporamenti apprendibili anteposti all'input, che guidano il modello congelato a produrre l'output desiderato per una specifica attività a valle. Questo approccio riduce drasticamente i costi computazionali e di archiviazione necessari per l'adattamento specifico per l'attività, come documentato nel documento di ricerca originale di Google AI.

L'idea principale è quella di addestrare solo poche migliaia o milioni di parametri extra (il soft prompt) per attività, piuttosto che riaddestrare o eseguire il fine-tuning dell'intero modello, che potrebbe avere miliardi di parametri. Questo rende fattibile la creazione di molti "moduli prompt" specializzati per un singolo modello pre-addestrato, ciascuno adattato a un'attività diversa, senza creare copie complete del modello. Questo metodo aiuta anche a mitigare il catastrophic forgetting, in cui un modello dimentica le informazioni apprese in precedenza quando viene addestrato su una nuova attività.

Applicazioni nel mondo reale

La regolazione del prompt consente la personalizzazione di potenti modelli di base per un'ampia gamma di applicazioni specializzate.

  • Analisi del sentiment personalizzata: Un'azienda desidera analizzare il feedback dei clienti per i suoi prodotti specifici. Un modello di analisi del sentiment generico potrebbe non comprendere il gergo specifico del settore. Utilizzando il prompt tuning, l'azienda può adattare un modello di grandi dimensioni come BERT addestrando un piccolo set di soft prompt sulle proprie recensioni dei clienti etichettate. Il modello risultante può classificare accuratamente il feedback senza la necessità di un addestramento completo del modello, fornendo informazioni più precise.
  • Chatbot medici specializzati: Un'organizzazione sanitaria mira a costruire un chatbot che risponda alle domande dei pazienti su specifiche condizioni mediche. Addestrare completamente un LLM medico di grandi dimensioni richiede molte risorse. Invece, possono utilizzare il prompt tuning su un modello pre-addestrato come GPT-4. Addestrando un prompt specifico per l'attività su un dataset medico curato, il chatbot impara a fornire risposte accurate e consapevoli del contesto per quel dominio, rendendo l'IA nell'assistenza sanitaria più accessibile.

Prompt Tuning vs. Concetti Correlati

È importante distinguere Prompt Tuning da tecniche simili:

  • Fine-tuning: Questo metodo aggiorna una porzione ampia, o anche tutti, i parametri di un modello pre-addestrato su un nuovo dataset. È più intensivo dal punto di vista computazionale, ma a volte può ottenere prestazioni più elevate adattando profondamente le rappresentazioni interne del modello. I suggerimenti per l'addestramento del modello spesso riguardano aspetti del fine-tuning.
  • Prompt Engineering: Si concentra sulla progettazione manuale di prompt testuali efficaci (prompt hard) per guidare un modello pre-addestrato congelato. Implica la creazione di istruzioni ed esempi all'interno del testo di input stesso e non comporta l'addestramento di nuovi parametri. Tecniche come il chain-of-thought prompting rientrano in questa categoria.
  • Prompt Enrichment: Questa tecnica migliora automaticamente il prompt di un utente aggiungendo contesto, ad esempio, utilizzando la Retrieval-Augmented Generation (RAG), prima che venga inviato al modello di IA. A differenza del prompt tuning, perfeziona la query di input senza addestrare nuovi parametri.
  • LoRA (Low-Rank Adaptation): Un'altra tecnica PEFT che inietta piccole matrici di basso rango addestrabili nei livelli esistenti (come il meccanismo di attenzione) del modello pre-addestrato. Aggiorna diverse parti del modello rispetto al Prompt Tuning, che si concentra esclusivamente sugli embedding di input. Entrambi si trovano spesso in librerie come la libreria Hugging Face PEFT.

Sebbene il Prompt Tuning sia applicato prevalentemente ai modelli LLM nell'elaborazione del linguaggio naturale (NLP), il principio fondamentale dell'adattamento efficiente è rilevante in tutta l'intelligenza artificiale (AI). Nella computer vision (CV), mentre il fine-tuning completo di modelli come Ultralytics YOLO su dataset personalizzati è comune per attività come l'object detection, i metodi PEFT stanno guadagnando terreno, soprattutto per i grandi modelli multimodali. Piattaforme come Ultralytics HUB semplificano il processo di training e implementazione di vari modelli di IA, potenzialmente incorporando tali tecniche efficienti in futuro.

Unisciti alla community di Ultralytics

Entra nel futuro dell'AI. Connettiti, collabora e cresci con innovatori globali

Iscriviti ora
Link copiato negli appunti