Yolo Vision Shenzhen
Shenzhen
Jetzt beitreten
Glossar

Prompt Engineering

Meistern Sie die Kunst des Prompt Engineering, um KI-Modelle wie LLMs für präzise, hochwertige Ergebnisse in Inhalten, Kundenservice und mehr zu steuern.

Prompt-Engineering ist der strategische Prozess der Strukturierung und Optimierung von Eingabetexten, so genannten Prompts, zur effektiven zu leiten. Künstliche Intelligenz (KI) Modelle zur Erzeugung spezifischer, hochwertiger Ergebnisse zu führen. Ursprünglich populär geworden durch den Aufstieg von Large Language Models (LLMs) wie GPT-4 popularisiert wurde, hat sich diese Disziplin zu einer entscheidenden Fähigkeit für Interaktion mit verschiedenen generativen Systemen. Es geht darum, die Nuancen zu verstehen, wie ein Modell die Sprache interpretiert, Kontext und Anweisungen interpretiert, um die Lücke zwischen menschlicher Absicht und maschineller Ausführung zu schließen. Durch die sorgfältige Auswahl von Wörtern, Formatierungseinschränkungen und die Bereitstellung von Kontext können die Benutzer die Genauigkeit und Relevanz von generativen KI-Antworten erheblich verbessern, ohne dass die zugrundeliegenden Parameter des Modells zu ändern.

Die Mechanik wirksamer Aufforderungen

Im Kern beruht das Prompt-Engineering auf dem Prinzip, dass KI-Modelle empfindlich auf die Formulierung und Struktur von Eingaben reagieren. Ein gut ausgearbeiteter Prompt enthält in der Regel spezifische Komponenten, die Mehrdeutigkeit reduzieren sollen. Dazu gehören explizite Anweisungen, relevante Hintergrundinformationen (Kontext) und Ausgabespezifikationen wie z. B. das Format. zum Beispiel die Anforderung einer Antwort in JSON oder einer Aufzählung. Zu den fortgeschrittenen Techniken gehört das "few-shot learning", bei dem der Benutzer in der Eingabeaufforderung Beispiele für die gewünschten Eingabe-Ausgabe-Paare angibt, um das Modell bei seinen Überlegungen zu unterstützen. Eine weitere leistungsstarke Methode ist chain-of-thought prompting, das die das Modell dazu anregt, komplexe Probleme in Zwischenschritte zu zerlegen, was die Leistung bei logiklastigen Aufgaben, wie in Google Veröffentlichungen.

Relevanz in der Computer Vision

Obwohl häufig mit der Texterzeugung in Verbindung gebracht, ist Prompt-Engineering zunehmend wichtig für Computer Vision (CV). Moderne multimodale Modelle und Detektoren mit offenem Vokabular, wie YOLO, ermöglichen es dem Benutzer, Erkennungsziele Erkennungsziele in natürlicher Sprache zu definieren, anstatt vordefinierte Klassen-IDs zu verwenden. In diesem Zusammenhang ist der "Prompt" die Text Beschreibung des Objekts (z.B. "roter Helm" vs. "Helm"). Diese Fähigkeit, die oft als Zero-Shot-Lernen bezeichnet wird, ermöglicht es Modellen, Objekte Objekte zu erkennen, auf die sie nicht explizit trainiert wurden, indem sie einfach die semantische Beziehung zwischen der Textaufforderung und den visuellen Merkmalen.

Das folgende Beispiel zeigt, wie Prompt-Engineering programmatisch mit der ultralytics Paket zur dynamischen Definition von Klassen für Objekterkennung:

from ultralytics import YOLO

# Load a YOLO-World model capable of interpreting text prompts
model = YOLO("yolo-world.pt")

# Use prompt engineering to define custom classes without retraining
# The model aligns these text descriptions with visual features
model.set_classes(["person in safety vest", "forklift", "cardboard box"])

# Run inference on an image to detect the prompted objects
results = model.predict("warehouse.jpg")

Anwendungsfälle in der Praxis

Der Nutzen von Prompt-Engineering erstreckt sich über verschiedene Branchen und fördert die Automatisierung und Kreativität:

  • Automatische Inhaltserstellung: In den Bereichen Marketing und Medien verwenden Fachleute detaillierte Eingabeaufforderungen, um die Text-zu-Bild-Generatoren wie Midjourney oder Stabile Diffusion. Eine spezifische Aufforderung zur Beschreibung von Beleuchtung, den künstlerischen Stil und die Komposition beschreiben, können Designer schnell Prototypen von visuellen Elementen erstellen und so im Vergleich zu im Vergleich zu traditionellen Rendering-Methoden.
  • Intelligente Kundenbetreuung: Unternehmen setzen Chatbots, die von LLMs gesteuert werden, um Kundenanfragen zu bearbeiten. Ingenieure erstellen "Systemaufforderungen", die die Persona des Bots definieren (z. B. "Sie sind ein hilfreicher technischer Support-Assistent"), setzen Grenzen, um Halluzinationen zu verhindern, und weisen die KI an, Antworten aus einer spezifischen Wissensbasis abzurufen.

Unterscheidung von verwandten Konzepten

Es ist wichtig, Prompt-Engineering von ähnlichen Begriffen im Bereich des maschinellen Lernens abzugrenzen:

  • Prompt-Engineering vs. Prompt-Tuning: Beim Prompt Engineering werden Abfragen in natürlicher Sprache manuell erstellt. Im Gegensatz dazu ist das Prompt-Tuning ein parameter-effizienter Mechanismus, der in der Trainingsphase weiche Einbettungen (numerische Vektoren) während einer Trainingsphase um die Modelleingaben zu optimieren, oft unsichtbar für den menschlichen Benutzer.
  • Promptes Engineering vs. Feinabstimmung: Die Feinabstimmung aktualisiert permanent die Modellgewichte durch Training mit einem speziellen Datensatz. Beim Prompt-Engineering wird das Modell selbst nicht verändert; es optimiert lediglich die Eingabe während der Echtzeit-Inferenz.
  • Prompt Engineering vs. RAG: Retrieval-Augmented Generation (RAG) ist eine Systemarchitektur, die externe Daten abruft, um die Antwort des Modells zu Antwort. Prompt Engineering ist die Technik, die innerhalb von RAG verwendet wird, um die abgerufenen Daten korrekt zu formatieren und sie dem LLM zur Verarbeitung zu übergeben.

Werden Sie Mitglied der Ultralytics

Gestalten Sie die Zukunft der KI mit. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten