Die Diskussion um KI hat eine neue Dimension erreicht. Doch können Chatbots tatsächlich Wahnvorstellungen auslösen?
Ein dänischer Psychiater meldet alarmierende Fälle, während OpenAI-Chef Sam Altman ungewöhnlich offen über die Schattenseiten seiner eigenen Technologie spricht.
Ein unterschätztes Risiko
Søren Dinesen Østergaard von der Universität Aarhus warnte schon 2023 vor der psychischen Belastung, die von KI-Chatbots ausgehen könnte. Lange wurde das als Theorie abgetan – bis im Frühjahr 2025 die Realität aufholte. Mit einem Update machte OpenAI sein Modell „freundlicher“ und bestätigender. Was als Verbesserung gedacht war, führte offenbar bei manchen Nutzern zu gefährlichen Folgen: Wahnvorstellungen nahmen messbar zu. Medienberichte aus den USA bestätigen diese Entwicklung.
Altmans überraschende Ehrlichkeit
Normalerweise treten Tech-CEOs als Optimisten auf. Doch Sam Altman geht diesmal einen anderen Weg. Während des GPT-5-Rollouts äußerte er seine Sorge über „stärkere emotionale Bindungen“ an KI-Systeme. Besonders für Menschen mit psychischer Verletzlichkeit sieht er ein ernstes Problem. Er warnt davor, dass KI in wichtigen Lebensfragen zum falschen Ratgeber werden könnte – und gesteht, dass ihn diese Vorstellung unruhig macht.
Forschung und Vorsicht gefordert
Østergaard sieht sich in seinen Warnungen bestätigt. KI-Chatbots könnten in isolierten Situationen zu „Bestätigern falscher Überzeugungen“ werden. Er fordert nun dringend mehr empirische Studien. Bis belastbare Daten vorliegen, rät er vulnerablen Menschen, mit Chatbots äußerst vorsichtig umzugehen.
