16 – Prompt Engineering im Unternehmenskontext – robust, wiederverwendbar, wirksam

Teil 16 der Serie: Die Mathematik hinter großen Sprachmodellen verständlich erklärt

31 Juli 2025
Wolf galetzki datista speaker

Wolf Galetzki

Datista® – Growth through Data & AI

Mathematik der sprachmodelle
Teil 16 von 20 der Serie: Die Mathematik hinter LLMs

Ein guter Prompt kann den Unterschied machen zwischen:

„Ich weiß leider nicht, was du meinst …“
und
„Hier ist die gegliederte SWOT-Analyse deiner Marktposition samt Handlungsempfehlung.“

Aber wie entwickelt man Prompts, die auch im Alltag funktionieren – skalierbar, wiederverwendbar und kontrollierbar?

In diesem Teil erfährst du:

  • Warum Prompting weit mehr als Trial-and-Error ist
  • Wie du systematische, modulare Prompts entwickelst
  • Welche Tools und Frameworks dich dabei unterstützen
  • Und wie Unternehmen Prompt Engineering industrialisieren

Was ist Prompt Engineering?

Prompt Engineering ist die gezielte Gestaltung von Eingaben, mit denen LLMs gesteuert werden – damit die Ausgabe:

  • im gewünschten Format
  • im richtigen Tonfall
  • mit korrektem Inhalt
  • und auf Basis des passenden Kontexts erfolgt.

Gute Prompts sind wie Interfaces – sie definieren, was ein Modell versteht und tut.

Grundstruktur eines Prompts

Ein professioneller Prompt ist oft modular aufgebaut:

Systemrolle: „Du bist ein ...“
Zieldefinition: „Deine Aufgabe ist ...“
Kontext: „Hier sind die relevanten Informationen ...“
Formatvorgabe: „Antworte bitte im folgenden Format ...“
Beispiel (optional): „Zum Beispiel so: ...“
Eingabe: „Frage: …“

→ Diese Struktur ermöglicht Wiederverwendbarkeit und einfache Tests.

Der Prompt-Baukasten (Best Practices)

ElementBeispiel
Rolle„Du bist ein juristischer Assistent …“
Ziel„… der Vertragsentwürfe auf Risiken prüft …“
Kontext„Der Vertragstext ist …“
Regeln„Verweise auf Paragraphen, keine Erfindungen.“
Format„Antworte in Markdown mit Bulletpoints.“
Beispiel„Beispielausgabe: …“

→ Ein strukturierter Prompt macht Verhalten planbar, messbar und testbar.

Prompt Engineering vs. Finetuning vs. RAG

MethodeEinsatzgebietFlexibilitätAufwand
PromptingSteuerung durch Eingabe🔄 Hoch🔧 Gering
RAGKontext über externe Daten🔄 Sehr hoch⚙️ Mittel
FinetuningVerhalten im Modell verankern🔄 Gering🔥 Hoch

Prompt Engineering ist der schnellste, günstigste Einstieg in kontrollierte LLM-Nutzung.

Tools & Frameworks für systematisches Prompting

ToolFunktion
PromptLayerPrompt-Versionierung & Monitoring
LangChainPromptTemplates + Kontextmanagement
Datasette / SpreadsheetsPrompt-A/B-Testing, Scoring
PromptfooVergleich von LLM-Ausgaben anhand Metriken
Datista® PromptOps TemplatesBest-Practice-Sammlungen für Unternehmens-Use-Cases (auf Anfrage)

Beispiel: Wiederverwendbare Prompts für Support-Tickets

Prompt:

System: Du bist ein technischer Support-Assistent.
Ziel: Du klassifizierst Tickets nach Dringlichkeit und Thema.
Format: JSON mit {"Thema": "...", "Dringlichkeit": "...", "Empfehlung": "..."}
Beispiel: {"Thema": "Login-Probleme", "Dringlichkeit": "Hoch", "Empfehlung": "Rückruf innerhalb 1h"}
Kontext: Der Nutzer schreibt: „Ich komme seit heute früh nicht mehr ins System …“

→ Dieser Prompt ist wiederverwendbar, messbar und kann bei Bedarf ergänzt werden (z. B. Sprache erkennen, Slack-ID finden etc.)

Prompt-Bibliotheken aufbauen

Große Organisationen bauen sich interne Prompt-Bibliotheken – mit:

  • Vorlagen für Standardaufgaben
  • Varianten für unterschiedliche Rollen oder Tonalitäten
  • Prompt-Modulen für spezifische Systeme oder Sprachen
  • Test-Sets für Regression Testing und A/B-Vergleiche

Prompting wird zum Teil der Softwareentwicklung und QA.

Iteration & Testing

Vorgehensweise in der Praxis:

  1. Ziel definieren
  2. Erste Prompt-Version formulieren
  3. Mit Testdaten evaluieren
  4. Bewertung (automatisch oder manuell)
  5. Verbesserung oder Aufteilung in Module
  6. Dokumentation / Versionierung

→ Tools wie promptfoo oder interne Scoring-Skripte helfen bei der Skalierung der Qualitätssicherung.

Fazit & Ausblick

Prompt Engineering ist:

  • kein Zufallsprodukt, sondern ein methodischer Prozess
  • der einfachste Weg zu kontrollierbarer KI
  • ein Skill, der sich trainieren lässt – und ein echter Wettbewerbsvorteil sein kann

In Teil 17 geht es darum, wie LLMs als Komponenten in komplexeren Systemarchitekturen funktionieren – inklusive Decision Routing und Multi-Model-Ansätzen.


FAQ – Häufige Fragen

Reicht ein einfacher Prompt nicht auch?
Für erste Tests ja. Aber sobald du Qualität, Skalierbarkeit oder Wiederverwendung brauchst – nein.

Wie finde ich heraus, ob mein Prompt gut ist?
Teste ihn mit realen Fällen. Variiere Eingaben, beobachte Ausgaben. Bewertest du sie gleich? Oder sind sie unzuverlässig?

Kann man Prompts automatisiert verbessern?
Teilweise. Es gibt Experimente mit Meta-Prompting („Verbessere diesen Prompt …“), aber in der Praxis ist manuelle Evaluation oft genauer.

Gibt es Schulungen dazu?
Ja – u. a. individuelle Workshops und Vorlagen bei Datista®, speziell für PromptOps in Unternehmen (inkl. QA-Strategien und Auditfähigkeit).

Wolf Galetzki

Berät Unternehmen bei der Einführung von KI und Automatisierung. Als Gründer von Datista liegt sein Fokus auf datensouveränen, anpassbaren Lösungen.

Wolf galetzki datista speaker

Alle Artikel der Serie:

Die Artikelserie "Die Mathematik hinter LLMs" umfasst insgesammt 20 Artikel. Folgende Artikel sind bereits veröffentlicht: