Entdecken Sie, wie ein neuartiger Transparenzindex die Geheimnisse großer KI-Modelle lüftet.
Ein interdisziplinäres Team aus KI-Forschern der Elite-Universitäten Stanford, MIT und Princeton hat einen bedeutenden Schritt zur Demystifizierung der sogenannten Foundation Models gemacht. Diese Modelle, darunter bekannte Namen wie GPT-4, Stable Diffusion 2 und PaLM 2, sind das Rückgrat vieler moderner KI-Anwendungen. Der neu eingeführte Foundation Model Transparency Index (FMTI) bewertet diese Modelle anhand von 100 Faktoren, um ihre Transparenz zu messen. Ein perfekter Score von 100 Prozent würde volle Transparenz bedeuten, doch der Spitzenreiter erreicht gerade mal etwas mehr als 50 Prozent. Das FMTI-Team identifizierte ein signifikantes Transparenzdefizit unter den großen KI-Modellen, was die Integration dieser Technologien in Anwendungen für Unternehmen erschwert. Mit LLaMA 2 an der Spitze, gefolgt von BLOOMZ und GPT-4, liefert der Index wichtige Einblicke darüber, wie offen und zugänglich die Entwickler ihre Modelle gestalten. Der Index unterteilt die Bewertungskriterien in drei Kategorien: Upstream-Faktoren (z.B. Datenquellen und Rechenressourcen), Modellindikatoren (wie Architektur und Fähigkeiten) und Downstream-Faktoren (z.B. Lizenzmodelle und Auswirkungen auf die Nutzer).