18. August 2025

Wenn KI zur Gefahr für die Psyche wird: Ein Psychiater und Sam Altman schlagen Alarm

Die Diskussion um KI hat eine neue Dimension erreicht. Doch können Chatbots tatsächlich Wahnvorstellungen auslösen?

Ein dänischer Psychiater meldet alarmierende Fälle, während OpenAI-Chef Sam Altman ungewöhnlich offen über die Schattenseiten seiner eigenen Technologie spricht.

Ein unterschätztes Risiko

Søren Dinesen Østergaard von der Universität Aarhus warnte schon 2023 vor der psychischen Belastung, die von KI-Chatbots ausgehen könnte. Lange wurde das als Theorie abgetan – bis im Frühjahr 2025 die Realität aufholte. Mit einem Update machte OpenAI sein Modell „freundlicher“ und bestätigender. Was als Verbesserung gedacht war, führte offenbar bei manchen Nutzern zu gefährlichen Folgen: Wahnvorstellungen nahmen messbar zu. Medienberichte aus den USA bestätigen diese Entwicklung.

Altmans überraschende Ehrlichkeit

Normalerweise treten Tech-CEOs als Optimisten auf. Doch Sam Altman geht diesmal einen anderen Weg. Während des GPT-5-Rollouts äußerte er seine Sorge über „stärkere emotionale Bindungen“ an KI-Systeme. Besonders für Menschen mit psychischer Verletzlichkeit sieht er ein ernstes Problem. Er warnt davor, dass KI in wichtigen Lebensfragen zum falschen Ratgeber werden könnte – und gesteht, dass ihn diese Vorstellung unruhig macht.

Forschung und Vorsicht gefordert

Østergaard sieht sich in seinen Warnungen bestätigt. KI-Chatbots könnten in isolierten Situationen zu „Bestätigern falscher Überzeugungen“ werden. Er fordert nun dringend mehr empirische Studien. Bis belastbare Daten vorliegen, rät er vulnerablen Menschen, mit Chatbots äußerst vorsichtig umzugehen.


Wir führen seit Jahren Beratung zu KI (Künstlicher Intelligenz) für KMUs (Klein- und Mittelständische Unternehmen) erfolgreich durch.

Mehr zu aktuellen Themen der #KI (Künstlichen Intelligenz) oder zu

Ihrem individuellen, optimalen "KI-Masterplan" für Ihr Unternehmen finden Sie in unserem Newsletter.

Abonnieren Sie den Newsletter hier:


Tags


Das könnte Sie auch interessieren

Abonnieren Sie jetzt unseren Newsletter!

>