Kritisches Wissen

Halluzination - Wenn KI Fakten erfindet

Halluzinationen sind falsche, aber plausibel klingende Informationen, die LLMs generieren. Von erfundenen Studien bis zu nicht existierenden Gesetzen - verstehen Sie, warum das passiert und wie Sie es vermeiden.

Lesedauer: ca. 8 Minuten | Level: Grundlagen

Halluzination bei KI - kritisches Prüfen von KI-Ausgaben

Executive Summary

Eine Halluzination liegt vor, wenn ein Large Language Model Informationen generiert, die faktisch falsch oder erfunden sind, aber überzeugend und plausibel formuliert werden. Das Modell "luegt" nicht absichtlich - es kennt den Unterschied zwischen wahr und falsch nicht.

Das Gefährliche: Die Antworten klingen oft sehr überzeugend. Das Modell nutzt den richtigen Fachjargon, gibt Details an und formuliert selbstsicher - auch wenn alles erfunden ist.

Typische Beispiele für Halluzinationen

  • Erfundene wissenschaftliche Studien mit realistisch klingenden Autoren
  • Nicht existierende Gesetze oder Gerichtsentscheidungen
  • Falsche historische Fakten oder Jahreszahlen
  • Erfundene Zitate von realen Personen
  • Nicht existierende Bücher, Artikel oder Websites

Warum halluzinieren LLMs?

LLMs "verstehen" Text nicht wirklich - sie erkennen statistische Muster. Es gibt mehrere Gruende für Halluzinationen:

1. Mustervervollständigung

Das Modell vervollständigt Muster aus den Trainingsdaten. Es ergaenzt plausibel klingende Fortsetzungen - egal ob wahr.

2. Unvollständige Daten

Wenn das Modell zu einem Thema wenig Daten hat, "fuellt" es Luecken mit plausiblem Text statt "Ich weiss es nicht" zu sagen.

3. Überoptimierung

Durch RLHF werden LLMs auf "hilfreiche" Antworten trainiert. Das führt dazu, dass sie lieber etwas erfinden als nichts zu sagen.

4. Hohe Temperature

Bei höheren Temperature-Werten wählt das Modell auch unwahrscheinlichere Tokens - das erhöht Halluzinationsrisiko.

Arten von Halluzinationen

Faktische Halluzinationen

Falsche Fakten, Zahlen, Daten oder Ereignisse.

"Die Schlacht von Waterloo fand 1820 statt." (Tatsaechlich: 1815)

Konfabulationen

Erfundene Details, die den Kontext "reicher" machen sollen.

"Einstein sagte in einem Interview 1950: '...'" (Interview existiert nicht)

Quellenerfindungen

Nicht existierende Studien, Bücher oder Artikel.

"Laut Studie von Müller et al. (2023) in Nature..." (Existiert nicht)

Reale Beispiele (und ihre Konsequenzen)

Fall 1: Anwalt nutzt ChatGPT für Gerichtsdokumente

2023, USA: Ein Anwalt reichte Gerichtsdokumente ein, die ChatGPT erstellt hatte. Das Modell zitierte 6 nicht existierende Gerichtsentscheidungen - mit plausiblen Namen, Jahreszahlen und Fallnummern. Der Anwalt prüfte die Quellen nicht. Resultat: Geldstrafe und oeffentliche Ruege.

Fall 2: Akademische Arbeiten mit erfundenen Quellen

Häufiges Problem: Studierende nutzen LLMs für Literaturrecherchen. Das Modell erfindet wissenschaftliche Paper mit realistischen Autorennamen. Wenn diese nicht geprüft werden, landen erfundene Quellen in Abschlussarbeiten.

Fall 3: Medizinische Fehlinformationen

Risiko: LLMs können falsche Dosierungen, nicht existierende Medikamente oder gefährliche Behandlungsempfehlungen generieren - formuliert wie von einem Arzt. Ohne Fact-Checking potenziell lebensgefährlich.

Wie erkennt man Halluzinationen?

Warnsignale

  1. Überzeugende Details ohne Quellen - Sehr spezifische Zahlen, Namen, Daten - aber keine Quellenangabe.
  2. Zu perfekte Antworten - Wenn die Antwort EXAKT zu Ihrer Frage passt - auch bei obskuren Themen.
  3. Widersprueche bei Nachfragen - Fragen Sie nach Details - ändert das Modell seine Aussage?
  4. Fehlende Unsicherheitsmarker - Echte Experten sagen "wahrscheinlich", "oft". Absolute Aussagen sind verdächtig.
  5. Quellen nicht auffindbar - Wenn genannte Quellen in Google Scholar etc. nicht existieren.

Wie vermeidet man Halluzinationen?

1. Explizit nach Quellen fragen

Statt:

"Was sagt die Forschung über X?"

Besser:

"Nenne mir 3 wissenschaftliche Studien zu X mit Autoren, Titel und Jahr. Wenn du keine kennst, sag das."

2. Unsicherheit einfordern

"Markiere unsichere Aussagen mit [?]. Wenn du etwas nicht weisst, sage 'Ich bin mir nicht sicher'."

3. Temperature senken

Bei faktischen Abfragen: Nutze Temperature 0.0-0.3 für deterministischere, weniger "kreative" Antworten.

4. RAG nutzen

Geben Sie dem Modell Zugriff auf echte Dokumente/Datenbanken. Es zieht Informationen dann aus verifizierten Quellen statt zu halluzinieren.

5. Immer manuell verifizieren

Die wichtigste Regel: Verlassen Sie sich nie blind auf LLM-Outputs. Prüfen Sie Fakten, Quellen und Zahlen manuell - besonders bei wichtigen Entscheidungen.

Prompt-Beispiele gegen Halluzinationen

Schlechter Prompt (anfällig)

Erkläre mir die neuesten Erkenntnisse zu Quantencomputern aus 2025.

Problem: Vage Frage, keine Quellenanforderung, das Modell wird wahrscheinlich plausibel klingende "Erkenntnisse" erfinden.

Guter Prompt (minimiert Halluzinationen)

Erkläre mir die neuesten Erkenntnisse zu Quantencomputern aus 2025.

WICHTIG:
- Nenne nur Informationen, bei denen du dir sicher bist
- Wenn du etwas nicht weisst, sage explizit "Ich habe dazu keine verlässlichen Informationen"
- Keine spekulativen Aussagen ohne Kennzeichnung
- Wenn moeglich: Gib Quellen an (Publikation, Autor, Jahr)

Besser: Klare Anweisungen zu Unsicherheit, explizite Erlaubnis "ich weiss es nicht" zu sagen.

Wann sind Halluzinationen besonders gefährlich?

Hochrisiko-Bereiche

  • Medizin & Gesundheit: Falsche Dosierungen oder Diagnosen können lebensgefährlich sein
  • Recht & Justiz: Erfundene Gesetze oder Urteile führen zu rechtlichen Problemen
  • Finanzen: Falsche Steuerberatung oder Investmenttipps haben finanzielle Konsequenzen
  • Wissenschaft: Erfundene Studien verfälschen den akademischen Diskurs
  • Journalismus: Fake-Quellen beschaedigen Glaubwuerdigkeit
  • Bildung: Schüler lernen falsche Fakten, die schwer zu korrigieren sind

Regel: Je höher das Risiko einer falschen Information, desto strenger muss Ihr Fact-Checking sein.

Weiterführende Themen

Halluzinationen erkennen & vermeiden?

Im 1:1 KI-Sparring lernen Sie praktische Strategien für Fact-Checking und den sicheren Umgang mit LLMs.

Kostenloses Erstgespräch buchen

Unverbindlich. Persönlich. 30 Minuten.