KI-Halluzinationen: Warum ChatGPT lügt (und wie du dich schützt)
Du fragst ChatGPT nach einem Zitat. Es liefert dir einen Satz, eine Quelle, sogar eine Seitenzahl. Du übernimmst das in deine Arbeit. Wochen später stellst du fest: Das Zitat existiert nicht. Die Quelle existiert nicht. ChatGPT hat alles erfunden — mit absoluter Überzeugung.
Das ist eine KI-Halluzination — und es ist das wichtigste Sicherheitsrisiko beim KI-Einsatz. Nicht, dass die Technik versagt. Nicht, dass Hacker angreifen. Sondern dass die KI Dinge erfindet, die plausibel klingen, aber falsch sind.
In diesem Artikel verstehst du, warum Halluzinationen passieren, welche besonders gefährlich sind, und — am wichtigsten — wie du dich in der Praxis schützt.
Was ist eine KI-Halluzination?
Eine Halluzination ist, wenn ein KI-System Informationen produziert, die plausibel wirken, aber frei erfunden sind. Das können sein:
- Quellenangaben (“Schmidt, 2019, S. 47”) — existieren nicht
- Zahlen und Statistiken (“72% der Deutschen…”) — ausgedacht
- Historische Fakten (“Kaiser Wilhelm hat…”) — verdreht oder frei
- Wissenschaftliche Studien (“Eine Stanford-Studie belegt…”) — fiktiv
- Biografische Details (“XY wurde 1965 in Köln geboren”) — falsch
- Juristische oder medizinische Informationen — potenziell gefährlich
Der Haken: Die KI “weiß” nicht, dass sie halluziniert. Sie schreibt mit derselben Selbstsicherheit, mit der sie echte Fakten liefert. Für Nutzer praktisch nicht unterscheidbar — außer durch Gegenprüfung.
Warum erfindet KI Dinge?
Der Kern: Sprachmodelle sind keine Faktendatenbanken
Modelle wie ChatGPT oder Claude sind Large Language Models. Sie wurden trainiert, plausibel klingende Antworten zu generieren — nicht wahrheitsgetreue.
Stell dir vor: Ein System, das gelernt hat, wie Sätze, Argumente und Zitate typischerweise aufgebaut sind. Wenn du es nach einem Zitat fragst, konstruiert es eines, das so aussieht, wie ein Zitat aussehen sollte — auch wenn dieses spezifische Zitat nie existierte.
Die drei Hauptursachen
1. Fehlendes Wissen
Fragst du nach etwas, das nicht im Trainingsdatensatz war (zu speziell, zu neu, zu obskur), hat die KI nichts zum Abrufen. Statt “Ich weiß es nicht” zu sagen, füllt sie die Lücke mit plausibel Erdachtem.
2. Statistisches Raten
Das Modell berechnet, welches Wort als nächstes am wahrscheinlichsten kommt — basierend auf Trainingsdaten. Bei unklaren Fragen gewinnt oft die “statistisch plausible” Antwort, nicht die wahre.
3. Prompt-Druck
Wenn du explizit nach Quellen oder Details fragst, die die KI nicht hat, erzeugt sie welche, um die Anfrage zu erfüllen. Das ist menschenähnlich: Ein unter Druck stehender Student füllt Lücken in Klausuren auch eher mit Raten als mit “Weiß ich nicht”.
Besonders gefährliche Halluzinationen
Nicht alle Halluzinationen sind gleich schlimm. Diese Kategorien sind besonders kritisch:
1. Wissenschaftliche Zitate
Die gefährlichste Kategorie. Eine KI, die dir “Schmidt (2019), Journal of Artificial Intelligence, 14(3), 234-250” liefert, produziert einen komplett ausgedachten Eintrag. Name, Jahr, Journal, Seitenzahlen — alles plausibel, nichts real.
Praxisbeispiel: Ein US-Anwalt nutzte 2023 ChatGPT für eine Gerichtseingabe. Die KI lieferte sechs Präzedenzfälle mit Aktenzeichen und Zitaten. Alle sechs waren erfunden. Resultat: öffentliche Demütigung und Sanktionen gegen den Anwalt.
2. Rechtliche Auskünfte
“Darf ich Mieterhöhung um 20% wegen Inflation durchführen?” Die KI antwortet mit Selbstbewusstsein — und liegt oft falsch. Rechtliche Fragen haben konkrete, kontextabhängige Antworten, die die KI nicht wissen kann.
3. Medizinische Informationen
“Welche Medikamente interagieren mit [X]?” — hier sind falsche Antworten potenziell lebensgefährlich. Moderne KIs sind vorsichtiger geworden, aber Fehler bleiben.
4. Aktuelle Daten & News
“Was ist der aktuelle Bitcoin-Kurs?” — wenn die KI keinen Live-Zugriff hat, kann sie nur raten oder Training-Cutoff-Daten wiederverwenden. Resultat: falsche Informationen mit altem Datum, aber als aktuell dargestellt.
5. Biografische Details
“Wer ist [Person]? Wo wurde sie geboren?” — Bei weniger bekannten Personen: die KI erfindet oft konsistente, aber falsche Details.
Wie du Halluzinationen erkennst
Du kannst nicht immer erkennen, wann die KI halluziniert. Aber diese Warnzeichen helfen:
Warnzeichen 1: Extrem spezifische Fakten Zahlen mit drei Nachkommastellen, genaue Zitate mit Seitenangaben, kleinste biografische Details — die KI weiß das wahrscheinlich nicht wirklich, sondern generiert es. Hohes Halluzinationsrisiko.
Warnzeichen 2: Zu perfekte Antwort Manchmal ist die Antwort einfach zu gut. Alles passt, keine Unsicherheit, alle Details ineinander verzahnt. Bei komplexen Fragen sollte eine ehrliche Antwort Unsicherheiten enthalten.
Warnzeichen 3: Seltene oder obskure Themen Je obskurer das Thema, desto höher das Halluzinationsrisiko. Bei Nischen-Wissenschaften, historischen Details oder lokalen Informationen besonders vorsichtig sein.
Warnzeichen 4: Aktuelle Ereignisse Wenn die KI keinen Web-Zugriff hat, kann sie keine aktuellen Informationen haben. Alles “Aktuelle” ist Raten oder veraltet.
Warnzeichen 5: Widersprüche in derselben Session Fragst du dieselbe Frage zweimal mit leichten Variationen und bekommst unterschiedliche Antworten — klares Zeichen für Unsicherheit.
Wie du dich schützt
Schutz 1: Immer gegenprüfen
Die goldene Regel: Jede faktische Aussage aus der KI, die in einer wichtigen Arbeit landet, muss durch eine unabhängige Quelle bestätigt werden. Wikipedia, Google, Fachliteratur, Originaltexte — aber nicht die KI selbst.
Schutz 2: Spezifische Prompts nutzen
Bitte die KI explizit um Transparenz bei ihrer Unsicherheit:
“Antworte basierend nur auf Wissen, von dem du hoch sicher bist. Bei Unsicherheit sage klar ‘Das weiß ich nicht sicher’ statt zu raten. Am Ende: markiere die 3 Punkte deiner Antwort, bei denen du am unsichersten warst.”
Das senkt Halluzinationsrisiko merklich, eliminiert es aber nicht.
Schutz 3: Claude statt ChatGPT bei faktischen Fragen
In meinen Tests ist Claude deutlich vorsichtiger als ChatGPT. Claude sagt häufiger “Das weiß ich nicht sicher” oder “Bitte überprüfe das durch eine verlässliche Quelle”. Für wissenschaftliche und faktische Arbeit ist das besser.
Schutz 4: Tools mit Live-Web-Zugriff nutzen
Für aktuelle Informationen oder Recherche mit Quellen: Perplexity oder ChatGPT mit aktivem Web-Modus. Diese Tools zitieren echte Quellen mit URL — die du dann selbst verifizieren kannst.
Schutz 5: Niemals Quellen aus der KI übernehmen
Die eiserne Regel: Eine KI als Quelle zu zitieren oder ihre erfundenen Quellen zu übernehmen, ist der schnellste Weg in akademische, rechtliche oder berufliche Probleme. Gibst du eine KI-”Quelle” an, hast du sie gesehen und gelesen — und nicht nur vertrauenstechnisch übernommen.
Schutz 6: Bei wichtigen Entscheidungen Experten konsultieren
KI ersetzt keinen Anwalt, Arzt oder Steuerberater. Für Entscheidungen mit echten Konsequenzen ist sie ein Vor-Denk-Tool, nicht das Endergebnis.
Praxis-Beispiele: Halluzination vs. ehrliche Antwort
Beispiel 1: Wissenschaftliches Zitat
Schlechter Prompt: “Gib mir 5 wissenschaftliche Studien, die meine These X belegen.”
KI halluziniert: liefert 5 plausibel klingende, aber möglicherweise erfundene Studien.
Besserer Prompt: “Welche Forschungsfelder sind für meine These X relevant? Nenne mir bekannte Autorinnen und Strömungen, damit ich selbst in Fachdatenbanken suchen kann. Bitte keine konkreten Zitate, die könnte ich nicht verifizieren.”
Beispiel 2: Historische Fakten
Schlechter Prompt: “Was hat Theodor Fontane am 3. März 1878 gemacht?”
KI halluziniert: erfindet ein Ereignis, das plausibel in die Biografie passt.
Besserer Prompt: “Was sind die bekannten biografischen Stationen Theodor Fontanes im Jahr 1878, für die es verlässliche Belege gibt? Falls du kein konkretes Wissen hast, sage es ehrlich.”
Beispiel 3: Aktuelle Zahlen
Schlechter Prompt: “Wie hoch ist aktuell der Leitzins der EZB?”
KI halluziniert: liefert einen Wert aus dem Trainingszeitraum, als wäre er aktuell.
Besserer Prompt: “Nutze eine aktuelle Web-Suche, um den Leitzins der EZB zu finden. Gib mir die Zahl mit Quelle und Datum.” (In Perplexity, ChatGPT Plus mit Web, Gemini funktioniert das.)
Die Entwicklung: Wird das besser?
Ja — langsam. Moderne Modelle sind deutlich seltener halluzinierend als die GPT-3-Generation. Techniken wie RAG (Retrieval-Augmented Generation) ziehen echte Quellen heran, statt aus dem Gedächtnis zu generieren.
Aber: Halluzinationen werden nicht verschwinden. Solange KI-Systeme mit Statistik arbeiten statt mit Wissensdatenbanken, bleibt das Risiko. Die Verantwortung liegt bei dir als Nutzer, gegenzuprüfen.
Fazit: Vertrauen, aber kontrollieren
KI ist ein mächtiges Werkzeug — aber ein lügendes Werkzeug. Wer das einmal internalisiert, arbeitet souverän damit:
- Faktenprüfung ist Pflicht, nicht Option
- Zitate und Quellen nie aus der KI übernehmen
- Je spezifischer die Info, desto höher das Halluzinationsrisiko
- Claude und Perplexity sind vorsichtiger als ChatGPT
- Explizit nach Unsicherheit fragen hilft
Wer diese Regeln einhält, kann KI als Werkzeug nutzen, ohne in die Halluzinationsfalle zu tappen. Wer sie ignoriert, veröffentlicht früher oder später etwas peinlich Falsches.
Für einen tieferen Einblick in die Grundlagen der KI-Systeme: mein KI-Glossar mit allen wichtigen Begriffen. Oder der Einsteiger-Guide zu Claude AI, der auch die Grenzen moderner KI erklärt.
Häufige Fragen zu KI-Halluzinationen
Halluzinieren alle KI-Tools gleich häufig?
Nein. In meinen Tests ist Claude vorsichtiger als ChatGPT. Gemini liegt dazwischen. Perplexity halluziniert am wenigsten, weil es echte Web-Quellen nutzt. Trotzdem: keines ist immun.
Kann ich Claude dazu bringen, nicht zu halluzinieren?
Nicht komplett, aber stark reduzieren. Ein Prompt wie “Antworte nur mit hoher Sicherheit; sonst sage ‘Das weiß ich nicht’” senkt das Halluzinationsrisiko messbar.
Was ist der Unterschied zwischen einer Halluzination und einem Fehler?
Ein Fehler ist, wenn die KI eine falsche Antwort auf eine sie kennende Frage gibt. Eine Halluzination ist, wenn sie etwas erfindet, das plausibel klingt, aber keinen realen Bezug hat — besonders bei Quellen, Zitaten, Daten.
Gibt es KI-Tools, die garantiert nicht halluzinieren?
Aktuell nein. Retrieval-Augmented-Systeme (wie Perplexity) reduzieren das Risiko drastisch, weil sie echte Dokumente abrufen — aber auch sie können Inhalte falsch zusammenfassen.
Ist GPT-5 besser bei Halluzinationen?
Ja, deutlich. Jede neue Generation ist besser — aber keine ist perfekt. Der Fortschritt ist ca. 50% weniger Halluzinationen alle 12-18 Monate.
Sollte ich KI ganz meiden, wenn Halluzinationen so ein Problem sind?
Nein. Das wäre, wie auf Rechtschreibprüfung zu verzichten, weil sie manchmal Wörter falsch korrigiert. KI ist ein mächtiges Werkzeug — bei klarem Verständnis der Grenzen.
Wie erkläre ich jemandem, warum KI-Halluzinationen gefährlich sind?
Die beste Analogie: Eine KI ist wie ein extrem selbstbewusster Kollege, der sehr klug klingt und viele Sprachen beherrscht, aber die Angewohnheit hat, bei Unsicherheit zu erfinden statt zu fragen. Du würdest dem Kollegen nützliche Einsatzgebiete geben — aber nie eine Entscheidung auf seinem Wort allein treffen.