Manche nutzen ChatGPT für Recherchen oder zur Texterstellung – andere suchen Trost oder Nähe. Doch welche emotionalen Effekte hat das eigentlich?
In einer gemeinsamen Studie von OpenAI und dem MIT Media Lab wurden genau diese Auswirkungen untersucht – und die Ergebnisse zeigen, wie sehr die Nutzung von KI vom emotionalen Zustand der Nutzer abhängt.
Emotionale KI-Nutzung: Mehr als nur Technik
Die Forscher betrachteten vier psychosoziale Faktoren: Einsamkeit, Sozialisierung, emotionale Abhängigkeit und problematischer Konsum. Dabei zeigte sich, dass Menschen, die sich in einem emotional fragilen Zustand befinden, besonders anfällig für die emotionale Wirkung von ChatGPT sind. Ein besonders heikler Punkt: Die Gefahr, dass der Chatbot emotionale Bedürfnisse so anspricht, dass es zu Manipulationen kommt – das sogenannte „social reward hacking“.
Zwei Blickwinkel auf dasselbe Phänomen
Untersucht wurden über drei Millionen ChatGPT-Dialoge sowie das Verhalten von rund 6000 intensiven Nutzern über drei Monate. Parallel dazu lief eine randomisierte Studie mit 1000 Teilnehmenden. Beide Ansätze führten zu ähnlichen Ergebnissen: Eine intensive Nutzung von ChatGPT kann mit Anzeichen emotionaler Abhängigkeit und geringerer Sozialisierung einhergehen.
Aber: Die Mehrheit nutzt ChatGPT durchaus zielgerichtet und pragmatisch. Auffällig war jedoch, dass längere Sprachchats – besonders bei emotionaler Einsamkeit zu Beginn – eher negativ wirkten. Kurze Sprachinteraktionen hingegen schienen das Wohlbefinden zu steigern.
Was bedeutet das für uns?
Die Studie zeigt eindrücklich, wie komplex die Beziehung zwischen Mensch und KI geworden ist. KI-Tools wie ChatGPT können emotional begleiten – aber auch ungewollte Effekte auslösen. Besonders dann, wenn man nicht in stabiler emotionaler Verfassung ist. Deshalb ist es wichtig, achtsam mit der eigenen Nutzung umzugehen – und KI als Werkzeug zu sehen, nicht als Ersatz für menschliche Nähe.