Meta Platforms treibt seine KI-Strategie weiter voran und testet nun erstmals einen selbst entwickelten KI-Chip für das Training künstlicher Intelligenz. Was bedeutet das für den Technologiekonzern und die Branche?
Eigene Hardware für mehr Unabhängigkeit
Meta setzt bereits seit 2024 auf den selbst entwickelten KI-Beschleuniger MTIA („Meta Training and Inference Accelerator“), der ursprünglich für die Inferenz – also die Anwendung von KI-Modellen – konzipiert wurde. Nun wagt der Social-Media-Gigant den nächsten Schritt und testet den Chip auch für das Training von KI-Modellen. Der Vorteil? Potenziell geringere Kosten und weniger Abhängigkeit von externen Anbietern wie Nvidia.
Effizienz als Schlüssel
Die bei TSMC gefertigten MTIA-Chips arbeiten mit 90 Watt pro Einheit und könnten eine energieeffizientere Alternative zu herkömmlichen Grafikprozessoren (GPUs) sein, die oft eine deutlich höhere Leistungsaufnahme haben. Zum Vergleich: Hochleistungs-GPUs wie der Nvidia H100 oder der AMD MI300X benötigen bis zu 750 Watt. Sollte sich Metas Hardware als leistungsfähig erweisen, könnte der Konzern langfristig seine eigene KI-Infrastruktur aufbauen und damit eine kostengünstigere Alternative zu externen Lösungen schaffen.
Von Empfehlungen zur generativen KI
Aktuell nutzt Meta die MTIA-Chips hauptsächlich für Empfehlungssysteme auf Plattformen wie Facebook und Instagram. Diese Systeme analysieren und priorisieren Inhalte, um die Nutzerbindung zu optimieren. Doch der langfristige Plan geht weiter: Ab 2026 sollen die Chips verstärkt für das Training von KI-Modellen eingesetzt werden – mit dem Ziel, später auch generative KI-Technologien wie Metas eigene KI-Chatbots zu unterstützen.
Chris Cox, Produktchef bei Meta, bestätigte auf einer Konferenz, dass das Unternehmen intensiv daran arbeite, das Training für Empfehlungssysteme weiterzuentwickeln. Gleichzeitig bereite man sich darauf vor, den Chip auch für zukünftige KI-Anwendungen einzusetzen.