Yolo Vision Shenzhen
Shenzhen
Iscriviti ora
Glossario

Prompt Tuning

Ottimizza i modelli linguistici di grandi dimensioni in modo efficiente con il Prompt Tuning: riduci i costi, risparmia risorse e ottieni un'adattabilità specifica per le attività senza sforzo.

La messa a punto tempestiva è una strategia per adattare i modelli di base pre-allenati modelli di fondazione pre-addestrati a compiti specifici senza il costo computazionale della riqualificazione dell'intera rete. Come forma di Parameter-Efficient Fine-Tuning (PEFT), questa tecnica congela gli enormi parametri del modello originale e ottimizza solo un piccolo insieme di vettori apprendibili, noti come "soft prompt". vettori apprendibili, noti come "soft prompt". A differenza del testo leggibile dall'uomo utilizzato nella di testo leggibile dall'uomo utilizzato nell'ingegneria dei prompt, i soft prompt sono numerici che vengono aggiunti ai dati di input. Questi vettori vettori appresi guidano il modello congelato a generare l'output desiderato, riducendo in modo significativo i requisiti di memoria e di archiviazione rispetto all'addestramento completo del modello. memoria rispetto all'addestramento completo del modello. Questo approccio permette di servire molti compiti specializzati diversi utilizzando un unico modello centrale condiviso.

Come funziona la sintonizzazione dei prompt

Il meccanismo alla base del prompt tuning si basa sul concetto di modifica dell'input piuttosto che dell'architettura del modello. In un tipico flusso di lavoro di apprendimento automatico (ML) che coinvolge i modelli linguistici di grandi dimensioni (LLM) o i modelli linguistici di Vision Language Models, il testo o l'immagine in ingresso vengono convertiti in una sequenza di vettori numerici. Nella sintonizzazione dei prompt, vengono vettori addestrabili (il soft prompt) vengono inseriti all'inizio di questa sequenza.

Durante la fase di backpropagation dell'addestramento, l'algoritmo di discesa del gradiente aggiorna solo questi nuovi l'algoritmo di discesa del gradiente aggiorna solo questi nuovi vettori, lasciando i miliardi di pesi del modello vettori, lasciando inalterati i miliardi di pesi del modello nel modello non vengono toccati. Questo metodo è stato evidenziato in una ricerca di Google AI, che ha dimostrato che quando i modelli diventano più grandi, la messa a punto immediata può eguagliare le prestazioni della messa a punto completa.

Applicazioni nel mondo reale

La messa a punto tempestiva sta trasformando le industrie rendendo l'intelligenza artificiale (IA) avanzata intelligenza artificiale (IA) più accessibile e scalabile.

  • Assistenza clienti personalizzata: Le grandi aziende hanno spesso bisogno di implementare chatbot per vari dipartimenti (ad esempio, fatturazione, assistenza tecnica, vendite). Invece di ospitare modelli di grandi dimensioni separati per ogni funzione, possono utilizzare un modello congelato in stile stile GPT-4 e passare da un modello leggero a un modello leggeri addestrati su basi di conoscenza basi di conoscenza specifiche per ogni reparto. Questo riduce latenza dell'inferenza e i costi dell'infrastruttura.
  • Analisi mediche specialistiche: In AI nella sanità, la privacy e la scarsità di dati sono sfide. Gli ospedali possono prendere un modello di analisi delle immagini modello di analisi delle immagini mediche e addestrare piccoli suggerimenti morbidi per condizioni specifiche come i tumori rari. In questo modo, le capacità diagnostiche generali del modello capacità diagnostiche generali del modello principale, adattandosi al tempo stesso a compiti di nicchia, utilizzando in modo principi di apprendimento per trasferimento in modo efficiente.

Differenziare la sintonizzazione del prompt dai termini correlati

È fondamentale distinguere il prompt tuning da tecniche di adattamento simili:

  • Ingegneria tempestiva: Si tratta di creare manualmente degli input testuali (hard prompt) per guidare un modello. Non richiede addestramento o aggiornamento dei parametri. aggiornamenti dei parametri. Al contrario, la messa a punto dei prompt è un processo automatizzato che apprende le incorporazioni numeriche ottimali mediante apprendimento supervisionato.
  • Messa a punto: Il fine-tuning tradizionale aggiorna tutti o la maggior parte dei parametri del modello, richiedendo una copia del modello per ogni task. attività. La messa a punto tempestiva mantiene la spina dorsale congelata, risparmiando così di memoria.
  • LoRA (Low-Rank Adaptation): Sebbene entrambi siano metodi PEFT, LoRA inietta matrici di basso rango addestrabili negli strati interni del modello (spesso il meccanismo di attenzione). meccanismo di attenzione), mentre la sintonizzazione si concentra esclusivamente sullo strato di incorporazione degli input.

Concetto di implementazione

Mentre la sintonizzazione dei prompt è più famosa in elaborazione del linguaggio naturale (NLP), il concetto meccanico sottostante, che prevede il congelamento di una grande spina dorsale e l'ottimizzazione di un piccolo tensoruniversale nell'apprendimento profondo (DL). Deep Learning (DL). Il seguente PyTorch PyTorch dimostra la logica fondamentale del congelamento dei parametri del modello e la creazione di un parametro di richiesta di apprendimento.

import torch
import torch.nn as nn

# Initialize a hypothetical pre-trained layer (the frozen backbone)
backbone = nn.Linear(768, 10)

# Freeze the backbone parameters so they don't update during training
for param in backbone.parameters():
    param.requires_grad = False

# Create a 'soft prompt' embedding that IS trainable
# This represents the learnable vectors prepended to inputs
soft_prompt = nn.Parameter(torch.randn(1, 768), requires_grad=True)

# Setup an optimizer that only targets the soft prompt
optimizer = torch.optim.Adam([soft_prompt], lr=0.001)

Questo codice illustra come gli sviluppatori possono controllare quali parti di un sistema apprendono, un aspetto chiave dell'ottimizzazione delle reti neurali. reti neurali. Per i compiti standard di visione per compiti standard di visione computerizzata, modelli efficienti come Ultralytics YOLO11 sono di solito vengono addestrati utilizzando un fine-tuning standard su set di dati personalizzati, ma i principi dell'efficienza guidano lo sviluppo di architetture future come YOLO26.

Rilevanza per la visione artificiale

La messa a punto rapida sta diventando sempre più importante nella Computer Vision (CV) con l'affermarsi di modelli modelli multimodali come CLIP. I ricercatori stanno esplorano la "sintonizzazione dei prompt visivi", in cui patch di pixel o token apprendibili vengono aggiunti alle immagini di ingresso per adattare i trasformatori di visione a nuovi compiti di rilevamento degli oggetti. trasformatori di visione a nuovi compiti di rilevamento di oggetti senza dover riqualificare i pesanti estrattori di caratteristiche. Questo rispecchia i guadagni di efficienza riscontrati nei modelli linguistici e si allinea alla tendenza del settore di con la tendenza del settore verso IA verde riducendo al minimo il consumo di energia durante l'addestramento.

Unitevi alla comunità di Ultralytics

Entra nel futuro dell'AI. Connettiti, collabora e cresci con innovatori globali

Iscriviti ora