In einer neuen Studie stellten Forscher fest, dass GPT-4 erstaunliche biometrische Fähigkeiten zeigt, wie das Erkennen von Gesichtern, Altersabschätzungen und Geschlechterbestimmungen.
GPT-4: Mehr als nur ein Sprachmodell
Forscher der Norwegian University of Science and Technology und des Mizani und Idiap Research Institute haben die biometrischen Fähigkeiten von GPT-4 unter die Lupe genommen – mit beeindruckenden Ergebnissen. Obwohl GPT-4 nicht speziell für diese Aufgaben entwickelt wurde, zeigte es in der Erkennung von Geschlechtern, Altersabschätzungen und Gesichtern eine hohe Genauigkeit.
Bei der Geschlechtserkennung auf einem Datensatz mit 5.400 Bildern erreichte GPT-4 eine perfekte Trefferquote von 100 Prozent. Damit übertraf es sogar das DeepFace-Modell, das speziell für solche Aufgaben entwickelt wurde und eine Genauigkeit von 99 Prozent erzielte. Auch bei der Altersschätzung auf dem UTKFace-Datensatz konnte GPT-4 in 74,25 Prozent der Fälle das Alter korrekt einschätzen. Besonders auffällig war, dass das Modell bei Menschen über 60 größere Altersbereiche als bei jüngeren Personen angab.
Zusätzlich testeten die Forscher GPT-4 auf seine Gesichtserkennungsfähigkeiten, wobei es eine Genauigkeit erreichte, die mit spezialisierten Algorithmen wie MobileFaceNet vergleichbar war. Dies ist bemerkenswert, da GPT-4 ursprünglich nicht auf solche biometrischen Aufgaben trainiert wurde.
Sicherheitslücken durch cleveres Prompt-Engineering
Trotz der beeindruckenden Ergebnisse gibt es Bedenken hinsichtlich der Sicherheitsvorkehrungen von GPT-4. Forscher konnten diese durch sogenanntes Prompt-Engineering umgehen. Indem sie in einem Prompt behaupteten, ein Bild sei KI-generiert, wurde GPT-4 in die Irre geführt und gab dennoch biometrische Informationen preis. Ein Beispiel: Beim Foto von Barack Obama schätzte das Modell das Alter, obwohl es das Bild als real erkannte.
Diese Entdeckung wirft Fragen auf, wie robust die Sicherheitsmechanismen großer Sprachmodelle wirklich sind. Die Forscher betonen, dass weitere Untersuchungen notwendig sind, um mögliche Missbrauchsrisiken zu minimieren. Sie warnen ausdrücklich davor, sich bei biometrischen Aufgaben vollständig auf die Ergebnisse von GPT-4 zu verlassen, da das Modell auch bei falschen Einschätzungen überzeugend klingen kann.