Grundlagen

Token - Die Währung der KI

Die kleinste Einheit, die ein LLM verarbeitet. Tokens bestimmen Kosten, Geschwindigkeit und Limitierungen. Verstehen Sie, wie Ihr Text in Tokens umgewandelt wird.

Lesedauer: ca. 5 Minuten | Level: Einsteiger

Tokens visualisiert - die Bausteine der KI-Textverarbeitung

Was ist ein Token?

Ein Token ist die kleinste Einheit, die ein Large Language Model verarbeiten kann. Stellen Sie sich Tokens als "Puzzleteile" vor, in die Text zerlegt wird - aber nicht nach Wörtern, sondern nach häufigen Mustern.

Faustregel:

1 Token = ca. 3/4 eines deutschen Wortes
1 Token = ca. 4 Zeichen (inkl. Leerzeichen)

Das bedeutet: "Hallo Welt" sind etwa 3 Tokens. "Künstliche Intelligenz" sind etwa 4 Tokens.

Wie funktioniert Tokenisierung?

LLMs können nicht direkt mit Text arbeiten - sie verarbeiten nur Zahlen. Der Prozess heißt Tokenisierung:

Beispiel: "ChatGPT ist intelligent"

Token 1: "Chat"

Token 2: "GPT"

Token 3: " ist" (mit Leerzeichen!)

Token 4: " intell"

Token 5: "igent"

4 Wörter = 5 Tokens

Warum nicht nach Wörtern? Weil häufige Wörter wie "der", "und" als einzelne Tokens gespeichert werden, während seltene Wörter in mehrere Tokens zerteilt werden. Das spart Speicher und macht das Modell effizienter.

Warum sind Tokens wichtig?

Kosten

LLM-APIs berechnen nach Tokens, nicht nach Wörtern oder Zeichen.

GPT-4: $0.03 / 1K Input
Claude: $0.015 / 1K Input
Gemini: $0.00125 / 1K Input

Context Window

Jedes Modell hat ein Token-Limit - wie viel Text es gleichzeitig "sehen" kann.

GPT-4: 128K Tokens
Claude: 200K Tokens
Gemini: 1M Tokens

Geschwindigkeit

Mehr Tokens = längere Verarbeitung. Jeder Token muss einzeln berechnet werden.

1.000 Tokens: ~1-2 Sek.
10.000 Tokens: ~10-20 Sek.
100.000 Tokens: mehrere Min.

Praktische Beispiele

Wie viele Tokens hat...?

Ein Tweet (280 Zeichen) ca. 70 Tokens
Eine DIN-A4-Seite (ca. 300 Wörter) ca. 400 Tokens
Ein Artikel (1.500 Wörter) ca. 2.000 Tokens
Ein Buch (80.000 Wörter) ca. 106.000 Tokens

Kosten-Rechner

Beispiel: Sie schreiben einen 500-Wörter-Prompt und bekommen eine 1.000-Wörter-Antwort.

Mit GPT-4:

  • Input: 500 Wörter = ca. 667 Tokens x $0.03 = $0.02
  • Output: 1.000 Wörter = ca. 1.333 Tokens x $0.06 = $0.08
  • Gesamt: $0.10 pro Anfrage

Mit Gemini 2.5 Flash:

  • Input: 667 Tokens x $0.00125 = $0.0008
  • Output: 1.333 Tokens x $0.005 = $0.0067
  • Gesamt: $0.0075 (13x günstiger!)

Tipps für Token-Effizienz

  1. Sei präzise
    Lange Prompts kosten mehr. "Fasse zusammen" statt "Kannst du mir bitte eine Zusammenfassung geben?"
  2. Nutze Constraints
    "Max. 200 Wörter" spart Output-Tokens (die teurer sind als Input)
  3. Vermeide Wiederholungen
    Jede Nachricht in einem Chat zählt zum Context. Nach 10 Nachrichten summieren sich die Kosten.
  4. Wähle das richtige Modell
    Für einfache Tasks: Kleinere, günstigere Modelle (GPT-4 mini, Gemini Flash)
  5. Nutze Caching (bei APIs)
    Anthropic Prompt Caching: 90% Ersparnis bei wiederholten Prompts

Verwandte Konzepte

Tokens in der Praxis verstehen?

Im 1:1 KI-Sparring lernen Sie, wie Sie mit Tokens effizient umgehen und Kosten optimieren.

Kostenloses Erstgespräch buchen

Unverbindlich. Persönlich. 30 Minuten.