Forscher haben ein bahnbrechendes Verfahren namens „Meta-Learning for Compositionality“ (MLC) entwickelt, das künstliche neuronale Netzwerke dazu anleitet, bei Tests zur systematischen Generalisierung die Leistungsfähigkeit von Menschen zu übertreffen.
Gemäß einer neuen Studie, die von Brenden Lage, einem Assistenzprofessor am Center for Data Science und Department of Psychology an der Uni New York, geleitet wurde, demonstriert MLC eine bemerkenswerte Fähigkeit, systematische Generalisierung bei großen Sprachmodellen zu verbessern. Marco Baroni von der Universität Pompeu Fabra in Barcelona betont, dass MLC auf der Transformer-Architektur basiert und darauf abzielt, neue Wortkombinationen zu generieren und auf neue Befehle zu reagieren. Im Gegensatz zu herkömmlichen Modellen nutzt MLC keinen festen Datensatz, sondern passt sich kontinuierlich verändernden Daten an, um die Bedeutung von Daten zu erkennen und sie in neuen Kontexten zu kombinieren. Die Forscher haben den Quellcode und vortrainierte Modelle des MLC bereits auf Github veröffentlicht, um die weitere Erforschung und Entwicklung in der Gemeinschaft zu fördern.Zusätzlich dazu haben die Forscher für Tests des MLC und der menschlichen Probanden Fantasienamen für Farben und Funktionen erdacht. Durch die Analyse des Verhaltens in Reaktion auf mehrdeutige linguistische Tests konnten sie auch induktive Verzerrungen identifizieren, bei denen spezifische Beobachtungen zu ungenauen Schlussfolgerungen führen.
Möchten Sie mehr über die neuesten Entwicklungen im Bereich der Künstlichen Intelligenz erfahren?