Yolo Vision Shenzhen
Shenzhen
Iscriviti ora
Glossario

Arricchimento del Prompt (Prompt Enrichment)

Scopri come l'arricchimento immediato automatizza l'aumento degli input per migliorare la precisione dell'IA. Impara a ottimizzare i modelli LLM e di visione come [YOLO26](ultralytics) per ottenere risultati migliori.

L'arricchimento rapido è il processo automatizzato di potenziamento dell'input iniziale di un utente con contesto pertinente, istruzioni specifiche o dati supplementari prima di inviarlo a un modello di intelligenza artificiale (AI). Questa tecnica funge da livello middleware intelligente che ottimizza l'interazione tra esseri umani e macchine, garantendo che i modelli linguistici di grandi dimensioni (LLM) e i sistemi di visione artificiale ricevano query complete. Inserendo dettagli che un utente potrebbe omettere, come le preferenze storiche , i dati sulla posizione o i vincoli tecnici, l'arricchimento dei prompt migliora significativamente l' accuratezza e la personalizzazione dell'output del modello senza richiedere all'utente di essere un esperto nella creazione di istruzioni dettagliate.

Il meccanismo di arricchimento

La funzione principale dell'arricchimento dei prompt è quella di colmare il divario tra un intento umano vago e l'input preciso e ricco di dati necessario ai modelli per ottenere prestazioni ottimali. Quando viene ricevuta una query, il sistema la analizza e recupera le informazioni di base necessarie da un grafico di conoscenza o da un database strutturato. I dati recuperati vengono formattati a livello di programmazione e aggiunti al prompt originale.

Ad esempio, nei flussi di lavoro di elaborazione del linguaggio naturale (NLP), una semplice domanda come "Qual è lo stato?" è contestualmente insufficiente. Un sistema di arricchimento identifica la sessione attiva, recupera l'ultimo numero d'ordine da un database transazionale e riscrive il prompt in: "L'utente sta chiedendo informazioni sull'ordine n. 998, attualmente in transito. Fornisci un aggiornamento sulla spedizione in base a questo stato". Questo processo utilizza spesso database vettoriali per trovare rapidamente il contesto semanticamente rilevante da inserire.

Applicazioni nel mondo reale

L'arricchimento tempestivo è essenziale per implementare solide applicazioni di IA generativa in vari settori, migliorando sia i sistemi basati sul testo che quelli basati sulla visione:

  1. Assistenza clienti contestualizzata: negli helpdesk automatizzati, un chatbot utilizza l'arricchimento per accedere alla cronologia degli acquisti e all'ambiente tecnico di un cliente. Invece di chiedere all'utente la versione del proprio dispositivo, il sistema recupera questa informazione dai metadati dell'account e la inserisce nel prompt. Ciò consente all' agente AI di fornire immediatamente procedure di risoluzione dei problemi specifiche per il dispositivo , migliorando in modo significativo l' esperienza del cliente.
  2. Configurazione dinamica della visione artificiale: nelle operazioni di sicurezza, un utente potrebbe semplicemente attivare l'impostazione "Modalità notturna". Dietro le quinte, l'arricchimento del prompt traduce questa intenzione di alto livello in classi di oggetti specifiche per un rilevatore a vocabolario aperto come YOLO. Il sistema arricchisce il prompt per cercare specificamente "torcia elettrica", "movimenti sospetti" o "persone non autorizzate", consentendo al modello di adattare dinamicamente il focus del rilevamento degli oggetti.

Esempio: Arricchimento dinamico delle classi

Il seguente Python L'esempio illustra il concetto di arricchimento immediato utilizzando il ultralytics pacchetto. Qui, l'intento di alto livello di un utente viene arricchito a livello di programmazione in un elenco di classi descrittive specifiche che il modello analizza.

from ultralytics import YOLO


def run_enriched_inference(user_mode):
    """Enriches a simple user mode into specific detection prompts."""
    # Load a YOLO-World model capable of open-vocabulary detection
    model = YOLO("yolov8s-world.pt")

    # Enrichment Logic: Map simple user intent to detailed class prompts
    context_map = {
        "site_safety": ["hard hat", "safety vest", "gloves"],
        "traffic": ["car", "bus", "traffic light", "pedestrian"],
    }

    # Inject the enriched context into the model
    enriched_classes = context_map.get(user_mode, ["object"])
    model.set_classes(enriched_classes)

    # The model now looks for the specific enriched terms
    print(f"Mode: {user_mode} -> Enriched Prompt: {enriched_classes}")


run_enriched_inference("site_safety")

Arricchimento del Prompt vs. Concetti Correlati

Per implementare operazioni di Machine Learning Operations (MLOps), è utile distinguere l'arricchimento immediato da termini simili:

  • Generazione potenziata dal recupero (RAG): La RAG è un metodo specifico di arricchimento. Si riferisce strettamente al meccanismo di recupero di documenti pertinenti da un corpus esterno per fondare la risposta del modello. L'arricchimento è il concetto più ampio che include la RAG, ma copre anche l'inserimento di dati di sessione statici, metadati utente o ora di sistema senza necessariamente eseguire una complessa ricerca semantica.
  • Prompt Engineering: Si tratta di l'attività manuale di progettazione di prompt efficaci. L'arricchimento è un processo automatico che applica i principi di principi di ingegneria dei prompt dinamicamente in fase di esecuzione.
  • Messa a punto del prompt: Si tratta di una messa a punto efficiente dei parametri (PEFT) in cui i "suggerimenti morbidi" (tensori apprendibili) vengono ottimizzati durante l'addestramento. L'arricchimento dei prompt avviene interamente durante in tempo reale e non altera i pesi del modello. pesi del modello.
  • Apprendimento a pochi colpi: Si tratta di fornire esempi all'interno del prompt per insegnare al modello un compito. consiste nel fornire esempi all'interno del prompt per insegnare al modello un compito. I sistemi di arricchimento spesso iniettano questi esempi dinamici in base al tipo di compito, combinando in modo efficace i due concetti.

Rilevanza nei moderni sistemi di intelligenza artificiale

Man mano che modelli come Ultralytics e GPT-4 diventano più performanti, il collo di bottiglia spesso si sposta sulla qualità dell'input. L'arricchimento dei prompt mitiga le allucinazioni nei modelli di linguaggio grande (LLM) basando il modello su dati fattuali forniti. Nella visione artificiale (CV), consente di realizzare sistemi di rilevamento flessibili e zero-shot learning in grado di adattarsi istantaneamente a nuovi ambienti senza necessità di riqualificazione, semplicemente modificando i prompt di testo inseriti nel sistema. Questa flessibilità è fondamentale per la creazione di soluzioni di IA scalabili e multimodali in grado di ragionare sia sul testo che sulle immagini. Gli utenti che desiderano gestire i set di dati utilizzati per fondare questi sistemi spesso si affidano a strumenti come la Ultralytics per organizzare e annotare le loro informazioni in modo efficace.

Unitevi alla comunità di Ultralytics

Entra nel futuro dell'AI. Connettiti, collabora e cresci con innovatori globali

Iscriviti ora