Prompt-Typen

Prompt Engineering - Der komplette Guide

Vom ersten "Hallo ChatGPT" zu professionellen KI-Workflows. Lernen Sie, wie Sie mit präzisen Prompts bessere Ergebnisse aus Large Language Models herausholen.

Lesedauer: ca. 10 Minuten | Level: Einsteiger bis Fortgeschritten

Prompt Engineering - die Kunst der richtigen KI-Kommunikation

Executive Summary

Ein Prompt ist die Eingabe oder Anweisung, die Sie einem Large Language Model (LLM) wie ChatGPT, Claude oder Gemini geben. Der Prompt ist das zentrale Steuerungselement - er bestimmt, was das Modell tun soll, wie es antworten soll und welche Perspektive es einnehmen soll.

Wichtig: Der Unterschied zwischen einem mittelmäßigen und einem exzellenten Ergebnis liegt oft nicht am Modell, sondern am Prompt. Klarheit, Kontext und konkrete Erwartungen machen den Unterschied.

Was ist ein Prompt?

Ein Prompt ist jede Form von Eingabe an ein LLM. Das kann eine einfache Frage sein ("Was ist die Hauptstadt von Österreich?"), eine komplexe Anweisung oder ein mehrteiliger Dialog.

Schlechter Prompt: "Schreib was über KI"

Guter Prompt: "Erkläre mir als Lehrer, wie ich ChatGPT im Geschichtsunterricht für kritisches Quellenarbeiten einsetzen kann. Gib mir 3 konkrete Unterrichtsbeispiele mit Zeitangaben."

Der gute Prompt ist präziser: Er definiert eine Rolle (Lehrer), ein konkretes Ziel (Einsatz im Geschichtsunterricht), einen Fokus (kritisches Quellenarbeiten) und ein Format (3 Beispiele mit Zeitangaben).

Anatomie eines perfekten Prompts

Professionelle Prompts folgen einer bewährten Struktur. Hier die 4 Kernelemente:

1. Rolle/Kontext

Du bist ein erfahrener Geschichtslehrer für die 10. Schulstufe.

2. Aufgabe

Erstelle mir eine Unterrichtseinheit zum Thema "Industrielle Revolution", die kritisches Denken fördert.

3. Format

Strukturiere die Einheit in: Einstieg (10 min), Hauptteil (30 min), Reflexion (10 min). Verwende Bullet-Points.

4. Constraints

Nutze keine Jahreszahlen ohne Quellenverweis. Die Sprache soll für 15-Jährige verständlich sein.

Tipp: Sie müssen nicht immer alle 4 Elemente verwenden - aber je komplexer die Aufgabe, desto wichtiger wird die Struktur.

Prompt-Typen im Überblick

Je nach Aufgabe und Komplexität eignen sich unterschiedliche Prompting-Strategien:

Do's und Don'ts beim Prompting

Do: Best Practices

  • Sei spezifisch: "Schreib eine Email" wird zu "Schreib eine formelle Email an meinen Chef (max. 150 Wörter)"
  • Gib Kontext: Das Modell kennt Ihre Situation nicht - erklären Sie den Hintergrund
  • Iteriere: Erste Antwort nicht perfekt? Verfeinere den Prompt schrittweise
  • Nutze Beispiele: Bei spezifischen Formaten zeigen Sie dem Modell, was Sie wollen
  • Fordere Nachfragen: "Frag mich nach fehlenden Infos" führt zu besseren Ergebnissen

Don't: Häufige Fehler

  • Zu vage: "Mach was mit Marketing" - das Modell rät nur
  • Zu komplex: 10 Anweisungen in einem Prompt - lieber aufteilen
  • Keine Constraints: Ohne Vorgaben (Länge, Ton, Format) ist das Ergebnis Glückssache
  • Blind vertrauen: LLMs halluzinieren - prüfen Sie Fakten immer nach
  • Statisch bleiben: Ein Prompt ist kein Dialog - verfeinern Sie iterativ

Fortgeschrittene Techniken

1. Prompt-Iteration: Der Dialog-Ansatz

Profis schreiben nicht den perfekten Prompt auf Anhieb. Stattdessen iterieren sie:

  1. Erster Prompt: Grobe Richtung vorgeben
  2. Feedback: "Das ist gut, aber zu technisch - vereinfache die Sprache"
  3. Verfeinern: "Ergänze noch 2 Praxisbeispiele"
  4. Finalisieren: "Fasse das Ganze in 3 Bullet-Points zusammen"

2. Constraints für bessere Kontrolle

Je mehr Einschränkungen Sie definieren, desto präziser das Ergebnis:

  • Länge: "Max. 150 Wörter" oder "Genau 5 Bullet-Points"
  • Ton: "Professionell aber nicht steif" oder "Humorvoll ohne albern zu sein"
  • Vermeide: "Nutze keine Fachbegriffe ohne Erklärung"
  • Muss enthalten: "Integriere diese 3 Keywords: [X, Y, Z]"
  • Perspektive: "Schreibe aus Sicht eines skeptischen Kunden"

3. Halluzinationen vermeiden

LLMs "halluzinieren" manchmal - sie erfinden Fakten. So minimieren Sie das Risiko:

  1. Fragen Sie nach Quellen: "Gib mir Quellen für jede Behauptung"
  2. Fordern Sie Unsicherheits-Marker: "Markiere unsichere Aussagen mit [?]"
  3. Verifizieren Sie kritische Fakten manuell
  4. Bei Code: Testen Sie jeden generierten Code!

Wichtig

Verlassen Sie sich niemals blind auf LLM-Outputs bei medizinischen/rechtlichen Ratschlägen, finanziellen Entscheidungen, historischen Fakten ohne Quellencheck oder sicherheitskritischem Code.

Weiterführende Themen

Prompt Engineering professionell lernen?

Im 1:1 KI-Sparring vertiefen wir Ihr Wissen und wenden es direkt auf Ihre Use Cases an.

Kostenloses Erstgespräch buchen

Unverbindlich. Persönlich. 30 Minuten.