Padroneggia l'arte del prompt engineering per guidare i modelli di IA come gli LLM per risultati precisi e di alta qualità in contenuti, servizio clienti e altro ancora.
L'ingegneria dei prompt è il processo strategico di strutturazione e ottimizzazione del testo di input, noto come prompt, per guidare in modo efficace guidare modelli di intelligenza artificiale (AI) verso la generazione di risultati specifici e di alta qualità. Sebbene inizialmente sia stato reso popolare dall'ascesa dei modelli linguistici di grandi dimensioni (LLM) come GPT-4, questa disciplina si è evoluta fino a diventare un'abilità critica per interagire con vari sistemi generativi. Si tratta di capire le sfumature di come un modello interpreta il linguaggio, e le istruzioni per colmare il divario tra l'intento umano e l'esecuzione automatica. Selezionando attentamente le parole, formattazione e fornendo il contesto, gli utenti possono migliorare in modo significativo l'accuratezza e la pertinenza delle risposte dell'IA generativa senza bisogno di risposte dell'intelligenza artificiale generativa, senza dover modificare i parametri parametri di base del modello.
L'ingegneria del prompt si basa sul principio che i modelli di IA sono sensibili alla formulazione e alla struttura degli input. input. Un prompt ben congegnato contiene solitamente componenti specifici progettati per ridurre l'ambiguità. Questi includono istruzioni esplicite, informazioni di contesto rilevanti (contesto) e specifiche di output come il formato, ad esempio ad esempio, la richiesta di una risposta in JSON o in un elenco puntato. Le tecniche avanzate includono l'apprendimento a pochi colpi, in cui l'utente fornisce esempi delle coppie input-output desiderate all'interno del prompt per guidare il ragionamento del modello. Un altro metodo potente è catena di pensieri, che incoraggia il modello a che incoraggia il modello a suddividere i problemi complessi in fasi di ragionamento intermedie, migliorando le prestazioni nei compiti più logici, come illustrato in compiti ad alto contenuto logico, come illustrato in RicercaGoogle pubblicazioni.
Sebbene sia spesso associata alla generazione di testi, l'ingegneria dei prompt è sempre più vitale nella Visione artificiale (CV). I moderni modelli multimodali e rilevatori di vocaboli aperti, come YOLO, consentono agli utenti di definire gli obiettivi di rilevamento utilizzando il linguaggio naturale obiettivi di rilevamento utilizzando il linguaggio naturale piuttosto che ID di classe predefiniti. In questo contesto, il "prompt" è il testo descrizione testuale dell'oggetto (ad esempio, "casco rosso" o "casco"). Questa capacità, spesso definita come apprendimento a zero scatti, consente ai modelli di detect oggetti oggetti su cui non sono stati addestrati esplicitamente, semplicemente elaborando la relazione semantica tra il testo richiesto e le caratteristiche visive. testo e le caratteristiche visive.
L'esempio seguente mostra come l'ingegneria del prompt viene applicata in modo programmatico utilizzando il metodo
ultralytics per definire dinamicamente le classi per
rilevamento degli oggetti:
from ultralytics import YOLO
# Load a YOLO-World model capable of interpreting text prompts
model = YOLO("yolo-world.pt")
# Use prompt engineering to define custom classes without retraining
# The model aligns these text descriptions with visual features
model.set_classes(["person in safety vest", "forklift", "cardboard box"])
# Run inference on an image to detect the prompted objects
results = model.predict("warehouse.jpg")
L'utilità dell'ingegneria rapida si estende a diversi settori, migliorando l'automazione e la creatività:
È importante differenziare il prompt engineering da termini simili nel panorama dell'apprendimento automatico: