Arricchimento del Prompt (Prompt Enrichment)
Diventa un esperto di AI con l'arricchimento dei prompt! Migliora gli output dei modelli linguistici di grandi dimensioni utilizzando il contesto, istruzioni chiare ed esempi per risultati precisi.
L'arricchimento del prompt è il processo automatizzato di aggiunta programmatica di contesto o informazioni rilevanti al prompt iniziale di un utente prima che venga inviato a un modello AI, in particolare a un Large Language Model (LLM). L'obiettivo è trasformare una query utente semplice o ambigua in un'istruzione dettagliata, specifica e consapevole del contesto. Questo passaggio di pre-elaborazione aiuta il modello AI a comprendere meglio l'intento dell'utente, portando a risposte significativamente più accurate, personalizzate e utili senza alterare il modello stesso.
Come funziona l'arricchimento dei prompt
L'arricchimento del prompt funge da livello middleware intelligente. Quando un utente invia una query, un sistema automatizzato la intercetta. Questo sistema raccoglie quindi dati contestuali da varie fonti, come profili utente, cronologia delle conversazioni, dati di sessione (come tipo di dispositivo o posizione) o database esterni. Inietta quindi dinamicamente queste informazioni nel prompt originale. Il prompt "arricchito" risultante, che ora contiene sia la query dell'utente sia il contesto aggiunto, viene infine passato all'LLM per l'elaborazione. Ciò migliora la capacità del modello di eseguire complesse attività di comprensione del linguaggio naturale (NLU).
Applicazioni nel mondo reale
- Assistenza clienti personalizzata: Un utente interagisce con un chatbot di e-commerce e digita: "Dov'è il mio pacco?" Il sistema di arricchimento dei prompt può recuperare automaticamente i dettagli dell'account dell'utente e il numero dell'ordine più recente da un database CRM. Il prompt inviato al modello diventa: "Il cliente con ID 98765 sta chiedendo informazioni sullo stato del suo ordine più recente, #ABC-12345. Richiesta originale dell'utente: 'Dov'è il mio pacco?'" Questo consente all'agente del servizio clienti basato sull'AI di fornire un aggiornamento istantaneo e specifico invece di chiedere informazioni chiarificatrici.
- Raccomandazione di contenuti più intelligente: Un utente di un servizio di streaming dice: "Consiglia un film." Questo è troppo vago per una buona raccomandazione. Il processo di arricchimento può aumentare questo prompt con dati come la cronologia di visione dell'utente, le sue preferenze di genere dichiarate e l'ora del giorno. Il prompt finale potrebbe essere simile a: "L'utente ha recentemente apprezzato thriller di fantascienza e drammi storici. È sabato sera. Consiglia un film che si adatti a questi criteri." Questo porta a un suggerimento più pertinente dal sistema di raccomandazione e migliora l'esperienza dell'utente attraverso la personalizzazione.
Arricchimento del Prompt vs. Concetti Correlati
È importante distinguere l'arricchimento del prompt da termini simili:
- Prompt Engineering: Questa è l'ampia disciplina della progettazione di prompt efficaci. L'arricchimento del prompt è una tecnica specifica e automatizzata all'interno del prompt engineering che si concentra sull'aggiunta di contesto dinamico all'input di un utente.
- Retrieval-Augmented Generation (RAG): RAG è un tipo potente e specifico di arricchimento del prompt. È specializzato nel recupero di informazioni fattuali da una knowledge base esterna per fondare l'output del modello e prevenire le allucinazioni. Sebbene RAG sia una forma di arricchimento, l'arricchimento può anche utilizzare altre fonti di contesto, come i dati della sessione utente, che non fanno parte di una knowledge base statica.
- Prompt Chaining: Questa tecnica suddivide un'attività in una sequenza di prompt multipli e interconnessi, dove l'output di un prompt alimenta il successivo. L'arricchimento, al contrario, modifica un singolo prompt prima che venga elaborato. Un passaggio di arricchimento del prompt può far parte di una catena più ampia, spesso come passaggio iniziale. Altre tecniche come il Chain-of-Thought (CoT) Prompting si concentrano sul miglioramento del ragionamento all'interno di una singola interazione.
- Prompt Tuning: Questo è un metodo di addestramento del modello. Come tecnica di fine-tuning efficiente in termini di parametri (PEFT), adatta il comportamento di un modello addestrando un piccolo set di nuovi parametri. L'arricchimento del prompt è una tecnica di inferenza che manipola la query di input e non modifica i pesi del modello.
Sebbene sia più comune nell'elaborazione del linguaggio naturale (NLP), l'idea di base è applicabile a tutto il machine learning. Nella computer vision, un concetto simile potrebbe comportare l'aggiunta di metadati (ad esempio, posizione, ora) a un'immagine per migliorare le prestazioni di un modello come Ultralytics YOLO11 in un'attività di object detection. Le piattaforme MLOps come Ultralytics HUB forniscono l'infrastruttura necessaria per un deployment del modello robusto, dove è possibile implementare pipeline di input sofisticate che utilizzano l'arricchimento e framework come LangChain o LlamaIndex.