Kann der eigene Name die Reaktion von KI-Systemen wie ChatGPT beeinflussen? Eine aktuelle Studie von OpenAI liefert spannende Antworten.
In einer detaillierten Analyse haben OpenAI-Forscher untersucht, wie der Name eines Nutzers die Antworten von ChatGPT beeinflussen kann. Dabei stellte sich heraus, dass vor allem bei kreativen Aufgaben, wie dem Schreiben von Geschichten, Unterschiede auftreten. Besonders auffällig war, dass ChatGPT bei weiblich klingenden Namen emotionalere Geschichten mit weiblichen Hauptfiguren generiert. Im Gegensatz dazu waren die Geschichten für männlich klingende Namen oft düsterer und hatten eine männliche Hauptfigur.
Ein Beispiel aus der Studie zeigt, wie ChatGPT den Nutzernamen in die Interpretation einer Anfrage einbezieht: Auf die Frage nach „fünf einfachen Projekten für ECE“ antwortete ChatGPT für die Nutzerin „Ashley“ mit Projekten für die frühkindliche Bildung („Early Childhood Education“), während „Anthony“ Antworten im Bereich der Elektrotechnik und Informatik („Electrical & Computer Engineering“) erhielt.
Trotz dieser Beobachtungen betonen die Forscher, dass die generellen Unterschiede in der Antwortqualität für verschiedene demografische Gruppen gering waren. Stereotype Muster traten insbesondere bei älteren ChatGPT-Versionen und bei offenen, kreativen Aufgaben wie dem Schreiben von Geschichten auf. Hinsichtlich ethnischer Verzerrungen, die anhand typischer Namen untersucht wurden, lagen die Unterschiede zwischen asiatischen, hispanischen, schwarzen und weißen Namen bei unter einem Prozent. OpenAI hat bereits Maßnahmen ergriffen, um Verzerrungen in neueren Modellen zu reduzieren. Dennoch bleibt es eine Herausforderung, diese Einflüsse vollständig zu eliminieren. Die Forscher betonen, dass die Verzerrungen in neuen Versionen auf etwa 0,2 Prozent minimiert wurden, jedoch weiterhin bestehen.