Prompt-Typen

Few-Shot Prompting

Geben Sie dem LLM 2-5 Beispiele, und es erkennt das Muster. Die effektivste Methode für spezifische Formate, konsistente Stile und präzise Outputs.

Lesedauer: ca. 8 Minuten | Level: Fortgeschritten

Person beim Lernen - Symbolbild für Few-Shot Learning durch Beispiele

Executive Summary

Few-Shot Learning bedeutet: Sie zeigen dem LLM ein paar Beispiele (typisch 2-5), und das Modell erkennt das Muster und wendet es auf neue Inputs an. Keine explizite Erklärung nötig - das Modell lernt aus den Beispielen.

Few-Shot ist besonders mächtig, weil es implizites Lernen nutzt - Sie müssen nicht jeden Detail erklären, das Modell extrahiert selbst die Regeln aus den Beispielen.

Was ist Few-Shot Prompting?

Bei Few-Shot Prompting geben Sie dem Modell konkrete Beispiele, die das gewuenschte Eingabe-Ausgabe-Muster demonstrieren. Das Modell erkennt das Muster und wendet es auf neue Anfragen an.

Beispiel: Tweet-Klassifizierung

Aufgabe: Klassifiziere die Stimmung dieser Tweets.

Beispiel 1:
Tweet: "Bester Tag ever! Ich habe meinen Traumjob bekommen!"
Stimmung: Positiv

Beispiel 2:
Tweet: "Wieder Verspätung bei der Bahn. Zum dritten Mal diese Woche."
Stimmung: Negativ

Beispiel 3:
Tweet: "Die neue Folge ist ok. Nicht super, aber auch nicht schlecht."
Stimmung: Neutral

Jetzt du:
Tweet: "Endlich Wochenende! Zeit zum Entspannen."
Stimmung: ?

LLM-Antwort: Positiv

Wann Few-Shot statt Zero-Shot?

Few-Shot ist besser bei

  • Spezifischen Formaten: JSON-Schemas, Tabellenstrukturen, Code-Patterns
  • Konsistentem Stil: Gleicher Ton über viele Outputs
  • Subtilen Regeln: Die schwer zu beschreiben sind
  • Domain-spezifischer Terminologie: Fachbegriffe mit Kontext
  • Edge Cases: Zeigen Sie Beispiele für Grenzfaelle
  • Komplexen Transformationen: Input nach Output nicht offensichtlich

Zero-Shot reicht bei

  • Standardaufgaben: Zusammenfassen, Übersetzen, einfache Fragen
  • Klaren Anweisungen: Wenn Sie das Ziel präzise beschreiben können
  • Allgemein bekannten Formaten: Emails, Blog-Posts, etc.
  • Explorativen Tasks: Brainstorming, Ideenfindung
  • Einmaligen Outputs: Konsistenz nicht wichtig

Praktische Beispiele

Beispiel 1: JSON-Extraktion aus Text

Extrahiere Informationen aus diesen Produkt-Reviews im JSON-Format:

Beispiel 1:
Review: "Das Buch kam schnell an. Die Geschichte ist spannend, aber das Cover ist langweilig."
JSON: {"lieferung": "positiv", "inhalt": "positiv", "design": "negativ"}

Beispiel 2:
Review: "Super Qualität, aber zu teuer für das, was es ist."
JSON: {"qualität": "positiv", "preis": "negativ"}

Jetzt du:
Review: "Perfektes Geschenk! Verpackung wunderschön, Produkt genau wie beschrieben."
JSON: ?

LLM-Antwort: {"geschenkeignung": "positiv", "verpackung": "positiv", "produktbeschreibung": "positiv"}
Das Modell erkennt das Muster: Aspekte identifizieren und als Key-Value-Paare mit positiv/negativ strukturieren.

Beispiel 2: Konsistenter Marketing-Stil

Schreibe Produktbeschreibungen im Stil unserer Marke:

Beispiel 1:
Produkt: Kaffeemaschine
"Morgens um 6. Noch muede. Diese Maschine? Macht in 30 Sekunden perfekten Espresso. Kein Gedoens. Nur Kaffee. Gut."

Beispiel 2:
Produkt: Kopfhörer
"Zug. Laerm. Diese Kopfhörer? Noise Cancelling wie im Raumschiff. Nur du und deine Musik. Zen."

Jetzt du:
Produkt: Schreibtischlampe
Beschreibung: ?

LLM-Antwort: "Spätnachts. Deadline. Diese Lampe? 5 Helligkeitsstufen. Blendet nicht. Perfekt."
Das Modell erkennt den Stil: Kurze Saetze. Situation nach Problem nach Lösung. Umgangssprache. Knackig.

Beispiel 3: Daten-Normalisierung

Normalisiere diese Adress-Eingaben:

Beispiel 1:
Input: "Hauptstr. 12, 1010 wien"
Output: "Hauptstrasse 12, 1010 Wien, Oesterreich"

Beispiel 2:
Input: "Linzerstr 45 4020 linz"
Output: "Linzer Strasse 45, 4020 Linz, Oesterreich"

Jetzt du:
Input: "mozartgasse 3 5020 sbg"
Output: ?

LLM-Antwort: "Mozartgasse 3, 5020 Salzburg, Oesterreich"
Das Modell erkennt: Strassennamen ausschreiben, Grossschreibung korrigieren, PLZ-Stadt-Mapping, Land hinzufügen.

Best Practices für Few-Shot Prompts

  1. Diversität in Beispielen
    Zeigen Sie verschiedene Faelle: einfach, komplex, Edge Cases. Nicht nur "Happy Path".
  2. Konsistente Formatierung
    Alle Beispiele im gleichen Format. Wenn Beispiel 1 "Input: / Output:" nutzt, auch bei Beispiel 2.
  3. Optimale Anzahl: 2-5 Beispiele
    1 Beispiel = zu wenig Muster. 10+ Beispiele = verschwendeter Context. Sweet Spot: 3 Beispiele.
  4. Reihenfolge matters
    Einfach nach Komplex. Das Modell lernt schrittweise. Letztes Beispiel hat oft mehr Gewicht.
  5. Klare Trennung
    Markiere deutlich: "Beispiel 1", "Beispiel 2", "Jetzt du:" - verhindert Verwirrung.
  6. Test mit neuen Inputs
    Validiere, ob das Modell wirklich das Muster erkannt hat - nicht nur Beispiele wiederholt.
  7. Bei Fehlern: Mehr Beispiele oder Erklärungen
    Wenn Few-Shot nicht funktioniert: Zusaetzliche Anweisungen hinzufügen oder auf Chain-of-Thought wechseln.

Few-Shot vs. Fine-Tuning

Wann Few-Shot? Wann Fine-Tuning?

Few-Shot ist perfekt wenn:

  • Sie wenige Beispiele haben (5-50)
  • Die Aufgabe sich haeufig ändert
  • Sie schnell iterieren wollen
  • Keine API-Kosten für Training
  • Task ist nicht hochspezialisiert

Fine-Tuning ist besser wenn:

  • Sie 1000+ Beispiele haben
  • Die Aufgabe ist stabil/wiederkehrend
  • Sie maximale Qualität brauchen
  • Kosten pro Request senken wollen
  • Task ist sehr domain-spezifisch

Faustregel: Starten Sie immer mit Few-Shot. Wenn Sie nach 100+ Anfragen merken, dass Sie jedes Mal die gleichen 5 Beispiele verwenden, dann lohnt sich Fine-Tuning.

Häufige Fehler und Lösungen

Fehler: Zu ähnliche Beispiele

Alle Beispiele sind fast identisch - Modell lernt kein robustes Muster.

Lösung: Variieren Sie Länge, Komplexitaet, Edge Cases in Ihren Beispielen.

Fehler: Inkonsistente Formatierung

Beispiel 1 nutzt "Input:", Beispiel 2 nutzt "Frage:" - Modell ist verwirrt.

Lösung: Einheitliches Template für alle Beispiele verwenden.

Fehler: Zu viele Beispiele

15 Beispiele im Prompt - Context Window voll, teure Requests.

Lösung: Maximal 5 Beispiele. Wenn mehr nötig, Fine-Tuning in Betracht ziehen.

Fehler: Beispiele enthalten Fehler

Ein Beispiel hat einen Tippfehler - Modell lernt den Fehler.

Lösung: Qualitätskontrolle! Jedes Beispiel muss perfekt sein.

Weiterführende Techniken

Few-Shot Prompting in der Praxis lernen?

Im 1:1 KI-Sparring üben wir Few-Shot Prompting mit realen Use Cases aus Ihrem Berufsalltag.

Kostenloses Erstgespräch buchen

Unverbindlich. Persönlich. 30 Minuten.