OpenAI will Jugendlichen künftig einen deutlich strengeren Schutz bieten. Doch wie genau soll das funktionieren?
Das Unternehmen arbeitet an einem neuen Altersfiltersystem, das anhand von Nutzungsmustern das Alter der Anwender einschätzen soll. Ziel ist es, unter 18-Jährige automatisch auf eine eingeschränkte Version von ChatGPT umzuleiten. Ist das Ergebnis unsicher, wird vorsorglich von einem Teenager ausgegangen. In manchen Ländern soll zusätzlich eine Verifikation per Ausweis greifen. Damit stellt OpenAI den Schutz vor problematischen Inhalten klar über Datenschutz und Nutzerfreiheit.
Besonders heikel sind die geplanten Einschränkungen: Für Minderjährige sollen sexualisierte Inhalte sowie Gespräche über Suizid oder Selbstverletzung grundsätzlich blockiert werden – auch in fiktiver Form. Kommt es zu Anzeichen einer akuten psychischen Belastung, will OpenAI die Eltern informieren oder im Ernstfall Behörden einschalten. Außerdem sollen Eltern neue Kontrollmöglichkeiten erhalten: von der Verknüpfung ihrer Konten mit denen der Jugendlichen ab 13 Jahren bis hin zu Blackout-Zeiten oder Benachrichtigungen im Krisenfall. Diese Funktionen sollen laut OpenAI noch bis Ende des Monats verfügbar sein.
Hintergrund dieser Maßnahmen ist ein tragischer Fall: Der 16-jährige Adam Raine nahm sich das Leben, und seine Eltern machten ChatGPT mitverantwortlich. OpenAI geriet daraufhin unter starken Druck und reagierte nun mit den angekündigten Schutzmechanismen.