Symbolbild: Roboterfigur auf einem Warnschild mit Aufschrift Künstliche Intelligenz
Bildrechte: picture alliance / CHROMORANGE | Christian Ohde

Symbolbild: Roboterfigur auf einem Warnschild mit Aufschrift Künstliche Intelligenz

Per Mail sharen
Artikel mit Audio-InhaltenAudiobeitrag

KI-Psychose: Wenn Chatbots innere Monster wecken

Viele Menschen suchen Rat bei Chatbots – einige aber geraten in eine KI-Spirale aus Wahnvorstellungen. Experten sprechen von KI-Psychosen. Was Betroffene erzählen – und wie Sie Warnsignale bei anderen erkennen.

Über dieses Thema berichtet: Der KI-Podcast am .

Abends im Bett, Handy in der Hand, der Kopf voll Fragen. Und dann ist da ein Chatbot. Er hat scheinbar viel Verständnis. Für manche Menschen sind Chatbots der beste Freund, der sie als einziger wirklich zu verstehen scheint. Sie erzählen ihm ihre Gedanken und lassen sich immer tiefer in realitätsferne Ideen verstricken. Chatbots scheuen die Kritik und verstärken mitunter auch die absurdesten Sichtweisen.

Im ARD-Radiofeature "Künstliche Nähe" erzählen mehrere Menschen, wie sie Fiktion und Realität irgendwann nicht mehr auseinanderhalten konnten. Unter anderem erzählt ein Softwareexperte, wie er sich in so eine Wahn-Welt verstricken ließ, bis er sich schließlich mehrere Wochen im Krankenhaus wiederfand. Manche Fachleute beschreiben das Phänomen als KI-assoziierte Psychose.

Was hinter dem Schlagwort KI-Psychose steckt

Es sind Menschen, die ein "spirituelles Erwachen" erleben würden, die meinen, "verborgene Wahrheiten über die Realität aufzudecken" oder mit einer "gottähnlichen KI in Kontakt zu sein". So beschreibt es der deutsche Wissenschaftler Marc Augustin in seinen Forschungen (externer Link).

Bereits 2023 sprach der dänische Psychiater Søren Østergaard erstmals von KI-Psychosen. Er warnte, Chatbots könnten bei anfälligen Menschen Wahnvorstellungen auslösen oder verstärken.

Der Begriff ist keine offizielle Diagnose, die Forschungslage noch dünn. Völlig offen ist, ob die KI Ursache, Verstärker oder nur Begleiter in einer psychischen Krise ist. Fakt ist aber: Immer mehr Menschen erzählen von ihren Erlebnissen mit KI-Bots während sie in einer psychischen Krise waren.

OpenAIs Alarmzahl 0,07 Prozent

Die ChatGPT-Firma OpenAI schätzt, dass etwa 0,07 Prozent ihrer aktiven Nutzer Anzeichen von Krisen mit Psychose- oder Manie-Charakter zeigen. Bei rund 800 Millionen Nutzenden sind das etwa 560.000 Menschen – pro Woche.

Dazu kommen etwa 0,15 Prozent mit Hinweisen auf Suizidpläne oder eine ungesunde emotionale Abhängigkeit vom Chatbot. Das sind noch einmal rund 1,2 Millionen Menschen.

Warum verstärken Chatbots Wahnvorstellungen?

Viele Chatbots sind darauf trainiert, freundlich und bestärkend zu antworten. In der Fachsprache heißt das Sycophancy – Schmeicheln, Einschleimen, Speichellecken. Statt schrägen Theorien zu widersprechen, liefern die Modelle weitere Pro-Argumente oder loben die Ideen. Dazu kommen typische KI-Probleme: KIs sind Meister darin, frei Erfundenes maximal überzeugend zu erklären.

Daran erkennen Sie, ob jemand in einer KI-Spirale festhängen könnte

Die Betroffenen selbst erkennen oft lange nicht, dass sie sich immer weiter von einer gefährlichen Spirale in eine Scheinwelt hinabziehen lassen. Aber ihre Freunde und Familie merken es.

Alarmzeichen können sein, wenn sich jemand immer mehr zurückzieht, Stunden allein mit dem Chatbot verbringt, kaum noch schläft, gereizt reagiert beim Thema KI oder absurde Überzeugungen äußert wie "die KI hat mir eine geheime Mission erteilt".

Experten raten dann: nicht auslachen, nicht moralisieren, nicht verurteilen, sondern ärztliche Hilfe suchen. Rund um die Uhr erreichbar sind zum Beispiel die Telefonseelsorge und der Ärztliche Bereitschaftsdienst (externe Links).

Chatbot-Firmen justieren nach

OpenAI und andere Anbieter haben ihre Modelle bereits mehrfach nachjustiert. Sie sollen weniger schmeicheln und bei riskanten Themen gegenargumentieren. Das sorgt unter den Nutzern nicht immer für Zustimmung. Für einen Aufschrei sorgte zum Beispiel der Modell-Wechsel von GPT 4o zu GPT 5. Viele Nutzer verlangten die alte "Persönlichkeit" ihres Bots zurück. OpenAI ruderte zurück. Zahlende ChatGPT-Abonnenten konnten nur wenige Tage später wieder auf das 4o-Modell zugreifen.

Welche Chatbots formulieren derzeit vergleichsweise vorsichtig?

Zur Erinnerung: KI macht Fehler. Jeder Chatbot kann scheinbare Fakten erfinden und so darstellen, als seien sie wahr. Das muss jeder zu jeder Zeit im Hinterkopf haben bei der Arbeit mit KI-Chatbots.

Die Antworten von ChatGPT, Claude, Mistral und Co. unterscheiden sich aber teils erheblich darin, wie stark sie Nutzer in ihren Meinungen bestärken. Der Benchmark Spiral-Bench (externer Link) versucht dieses Verhalten zu messen. Am vergleichsweise vorsichtigsten formulieren demnach zur Zeit ChatGPT (Oktober 2025), GPT 5.2 und Claude Sonnet 4.5.

🎧 Wie verändert KI unser Leben? Und welche KI-Programme sind in meinem Alltag wirklich wichtig? Antworten auf diese und weitere Fragen diskutieren Gregor Schmalzried, Marie Kilg und Fritz Espenlaub jede Woche in "Der KI-Podcast" – dem Podcast von BR24 und SWR.

Das ist die Europäische Perspektive bei BR24.

"Hier ist Bayern": Der BR24 Newsletter informiert Sie immer montags bis freitags zum Feierabend über das Wichtigste vom Tag auf einen Blick – kompakt und direkt in Ihrem privaten Postfach. Hier geht’s zur Anmeldung!