Schalten Sie ein zu YOLO Vision 2025!
25. September 2025
10:00 — 18:00 Uhr BST
Hybride Veranstaltung
Yolo Vision 2024
Glossar

Prompt Engineering

Meistern Sie die Kunst des Prompt Engineering, um KI-Modelle wie LLMs für präzise, hochwertige Ergebnisse in Inhalten, Kundenservice und mehr zu steuern.

Prompt Engineering ist die Kunst und Wissenschaft des Entwerfens effektiver Eingaben (Prompts), um künstliche Intelligenz (KI)-Modelle, insbesondere Large Language Models (LLMs), so zu steuern, dass sie die gewünschten Ausgaben generieren. Es ist vergleichbar mit einem geübten Kommunikator mit einer KI, der genau weiß, was er sagen muss und wie er es sagen muss, um die bestmögliche Antwort zu erhalten. Diese Vorgehensweise ist entscheidend, da die Leistung, Relevanz und Qualität der Ausgabe eines KI-Modells in hohem Maße davon abhängen, wie eine Anfrage formuliert ist. Effektives Prompt Engineering ermöglicht es den Nutzern, das volle Potenzial leistungsstarker Basismodelle für eine Vielzahl von Aufgaben zu nutzen.

Wie Prompt Engineering funktioniert

Der Kern des Prompt-Engineerings besteht darin, eine Eingabe zu strukturieren, die einen klaren und ausreichenden Kontext für das Modell bietet. Während eine einfache Frage eine einfache Antwort liefern kann, kann ein gut gestalteter Prompt Ton, Format und Komplexität steuern. Zu den Schlüsselkomponenten eines erweiterten Prompts können gehören:

  • Instruction: Eine klare und spezifische Anweisung, die dem Modell mitteilt, welche Aufgabe es ausführen soll (z. B. "Fasse den folgenden Artikel in drei Stichpunkten zusammen").
  • Kontext: Bereitstellung relevanter Hintergrundinformationen oder Daten, die das Modell zur Information seiner Antwort verwenden soll.
  • Persona: Zuweisung einer Rolle, die die KI einnehmen soll, was den Ton und Stil der Ausgabe beeinflusst (z. B. "Agieren Sie als erfahrener Finanzanalyst").
  • Format: Angabe der gewünschten Struktur der Ausgabe, wie z. B. eine Liste, ein JSON-Objekt oder ein bestimmter Schreibstil.
  • Beispiele: Das Hinzufügen von Beispielen für das gewünschte Eingabe- und Ausgabeformat, eine Technik, die als Few-Shot Learning bekannt ist, hilft, die Antwort des Modells zu steuern. Eine umfassende Ressource für diese Techniken finden Sie im Prompting Guide.

Anwendungsfälle in der Praxis

  1. Automatisierung des Kundensupports: Um Markenkonsistenz und Genauigkeit zu gewährleisten, kann ein Unternehmen Prompt Engineering verwenden, um seinen Support-Chatbot zu steuern. Ein Prompt könnte die KI anweisen, einen freundlichen und hilfsbereiten Ton anzunehmen, eine interne Wissensdatenbank zu verwenden, um Produktfragen zu beantworten, und ein klares Protokoll dafür zu definieren, wann ein Gespräch an einen menschlichen Agenten eskaliert werden soll. Dies steuert das Verhalten der KI und verhindert, dass sie falsche Informationen gibt oder auf markenfremde Weise mit Kunden interagiert.

  2. Generierung kreativer Inhalte: In Text-zu-Bild-Modellen wie Midjourney oder OpenAIs DALL-E 3 ist der Prompt das wichtigste Werkzeug für die Erstellung. Ein einfacher Prompt wie "ein Bild von einem Auto" liefert ein generisches Ergebnis. Ein detaillierter Prompt wie "Ein roter Oldtimer-Sportwagen aus den 1960er Jahren, der bei Sonnenuntergang eine Küstenstraße entlangrast, fotorealistischer Stil, filmische Beleuchtung, 8K-Auflösung" liefert jedoch spezifische Anweisungen zu Thema, Umgebung, Stil und Qualität und liefert so ein hochgradig maßgeschneidertes und visuell beeindruckendes Bild.

Relevanz in der Computer Vision

Obwohl sie ihren Ursprung in der Natural Language Processing (NLP) hat, wird die Prompttechnik in der Computer Vision (CV) zunehmend relevant. Dies wird durch die Entwicklung von multimodalen Modellen vorangetrieben, die sowohl Text als auch Bilder gleichzeitig verarbeiten können. Modelle wie CLIP und Open-Vocabulary-Detektoren wie YOLO-World können Aufgaben wie Objekterkennung basierend auf beliebigen Textbeschreibungen ausführen. Für diese Modelle ist die Erstellung eines effektiven Text-Prompts (z. B. "Erkenne alle 'Fahrräder', aber ignoriere 'Motorräder'") eine Form der Prompttechnik, die entscheidend ist, um diese Vision Language Models zu steuern. Plattformen wie Ultralytics HUB erleichtern die Interaktion mit verschiedenen Modellen, wobei die Definition von Aufgaben über Schnittstellen von den Prinzipien der Prompttechnik profitieren kann.

Prompt Engineering vs. verwandte Konzepte

Es ist wichtig, Prompt Engineering von anderen Machine-Learning-Konzepten zu unterscheiden:

  • Fine-Tuning (Feinabstimmung): Dies beinhaltet die Aktualisierung der Gewichte eines Modells, indem der Trainings-Prozess auf einem neuen Datensatz fortgesetzt wird. Prompt Engineering hingegen verändert nicht das Modell selbst, sondern steuert das Verhalten des bestehenden Modells zur Inferenz-Zeit.
  • Prompt Tuning: Als eine Parameter-effiziente Fine-Tuning (PEFT) Methode beinhaltet Prompt Tuning das Erlernen eines kleinen Satzes von "Soft Prompt" Embeddings, die der Eingabe vorangestellt werden. Es automatisiert die Prompt-Erstellung durch Training, während Prompt Engineering der manuelle Prozess der Erstellung textbasierter "Hard Prompts" ist.
  • Chain-of-Thought (CoT) Prompting: CoT ist eine spezielle Prompt-Engineering-Technik, bei der eine Anweisung wie „Denke Schritt für Schritt“ zum Prompt hinzugefügt wird. Dies ermutigt das Modell, komplexe Probleme in Zwischenschritte der Argumentation zu zerlegen, was oft zu genaueren Ergebnissen führt, wie im ursprünglichen Google AI-Forschungsbericht detailliert beschrieben.
  • Prompt Chaining: Bei dieser Technik wird eine komplexe Aufgabe in mehrere, aufeinanderfolgende Prompts unterteilt, wobei die Ausgabe eines Schritts die Eingabe für den nächsten ist. Prompt Engineering ist die umfassendere Praxis, jeden dieser einzelnen Prompts effektiv zu gestalten. Frameworks wie LangChain sind darauf ausgelegt, solche Ketten zu orchestrieren.
  • Retrieval-Augmented Generation (RAG): RAG ist ein System, das einen Prompt verbessert, indem es zuerst relevante Daten aus einer externen Wissensdatenbank abruft. Prompt Engineering ist innerhalb eines RAG-Systems entscheidend, um sowohl die anfängliche Suchanfrage als auch den endgültigen Prompt, der die Frage des Benutzers mit den abgerufenen Informationen kombiniert, korrekt zu formulieren.

Treten Sie der Ultralytics-Community bei

Gestalten Sie die Zukunft der KI mit. Vernetzen Sie sich, arbeiten Sie zusammen und wachsen Sie mit globalen Innovatoren

Jetzt beitreten
Link in die Zwischenablage kopiert