Können Maschinen ähnlich „denken“ wie Menschen? Eine neue Studie bringt überraschende Parallelen ans Licht.
Wie nah kommt KI dem menschlichen Denken wirklich?
Eine spannende Untersuchung von Forscherteams aus Harvard, Brown und Tübingen zeigt: Transformer-Modelle verarbeiten Informationen in Zwischenschritten, die denen des menschlichen Gehirns erstaunlich ähnlich sind. Aber was genau passiert dabei – und was sagt das über uns?
Zwischenschritte, die viel verraten
Anders als frühere Studien, die sich auf die finalen Ausgaben der KI fokussierten, analysierte dieses Forschungsteam, wie sich die Wahrscheinlichkeiten verschiedener Antwortoptionen über die Schichten der Modelle hinweg entwickeln. Sozusagen ein Blick unter die Haube: Wie „überlegt“ sich ein Modell eine Antwort? Dabei wurden Metriken wie Entropie (ein Maß für Unsicherheit), Vertrauenswerte und sogenannte Boosting-Effekte untersucht – also ob sich das Modell in späteren Schichten „umstimmt“.
Wenn die KI stolpert, tun wir es auch
In fünf kognitiven Aufgaben – von Wissensfragen über Tierklassifikation bis zu logischen Schlüssen – zeigte sich ein klares Muster: Wann immer die KI zu kämpfen hatte, taten das auch Menschen. Besonders aufschlussreich war das bei irreführenden Antworten wie der Hauptstadt von Illinois. Sowohl Mensch als auch Modell mussten sich erst von der plausiblen, aber falschen Option „Chicago“ lösen, bevor sie „Springfield“ wählten.
Auch bei der Objekterkennung aus verzerrten Bildern oder dem Schlussfolgern mit Voreingenommenheit zeigte sich: Die internen Prozesse der KI reflektieren auf faszinierende Weise menschliche Unsicherheiten, Reaktionszeiten und Denkpfade.
Was heißt das für die Forschung – und für uns alle?
Transformer-Modelle könnten künftig nicht nur Werkzeuge, sondern auch Modelle des menschlichen Denkens sein. Das öffnet neue Türen: für bessere Erklärbarkeit von KI-Entscheidungen, aber auch für neue Hypothesen in der Kognitionsforschung. Klar ist aber auch: Diese Modelle sind noch begrenzt – untersucht wurden bislang nur Varianten aus der LLaMA-2- und ViT-Familie. Trotzdem liefert die Studie ein starkes Argument: Vielleicht lohnt sich ein neuer Blick auf KI – nicht nur als technisches Hilfsmittel, sondern als Spiegel unserer eigenen mentalen Prozesse.