Eine Halluzination liegt vor, wenn ein Large Language Model Informationen generiert, die faktisch falsch oder erfunden sind, aber überzeugend und plausibel formuliert werden. Das Modell "luegt" nicht absichtlich - es kennt den Unterschied zwischen wahr und falsch nicht.
Das Gefährliche: Die Antworten klingen oft sehr überzeugend. Das Modell nutzt den richtigen Fachjargon, gibt Details an und formuliert selbstsicher - auch wenn alles erfunden ist.
Typische Beispiele für Halluzinationen
- Erfundene wissenschaftliche Studien mit realistisch klingenden Autoren
- Nicht existierende Gesetze oder Gerichtsentscheidungen
- Falsche historische Fakten oder Jahreszahlen
- Erfundene Zitate von realen Personen
- Nicht existierende Bücher, Artikel oder Websites