19. Februar 2026

Metas Milliarden-Deal mit Nvidia: Warum jetzt auch CPUs strategisch werden

Meta investiert massiv in KI-Infrastruktur. Stehen wir vor einer neuen Phase im Wettbewerb um Rechenleistung?

Meta hat sich in einem mehrjährigen Abkommen den Zugriff auf Millionen Nvidia-Chips gesichert – darunter aktuelle Blackwell-GPUs, kommende Rubin-Generationen und erstmals auch eigenständige Grace- und Vera-CPUs. Offizielle Zahlen fehlen, doch Analysten sprechen von einem Volumen in Milliardenhöhe, möglicherweise sogar im zweistelligen Milliardenbereich. Parallel kündigt Mark Zuckerberg an, die KI-Infrastrukturausgaben bis 2026 auf bis zu 135 Milliarden US-Dollar nahezu zu verdoppeln. Das ist kein Routineeinkauf, sondern ein klarer strategischer Schritt.

Besonders bemerkenswert ist jedoch nicht der GPU-Anteil des Deals, sondern Metas Entscheidung, Nvidias CPUs in großem Stil einzusetzen. Bisher waren Grace-Prozessoren vor allem als Teil kombinierter CPU-GPU-Superchips erhältlich. Seit Anfang 2026 bietet Nvidia diese Prozessoren separat an – und Meta gehört nun zu den prominentesten Abnehmern. Damit reagiert man auf eine strukturelle Verschiebung im KI-Markt: Weg vom rechenintensiven Training riesiger Modelle, hin zur Inferenz, also dem produktiven Einsatz trainierter Modelle im Alltag.

Gerade für Inferenz-Workloads sind GPUs häufig überdimensioniert. Nvidia positioniert Grace und künftig Vera daher als energieeffiziente Alternative für Backend-Aufgaben wie Datenbanken oder skalierte KI-Dienste. Laut Unternehmensangaben liefert Grace bei bestimmten Anwendungen doppelte Leistung pro Watt im Vergleich zu herkömmlichen Lösungen. Vera geht noch weiter: 88 Custom-Arm-Kerne, Simultaneous Multi-Threading und integrierte Confidential-Computing-Funktionen sollen insbesondere bei sensiblen Anwendungen – etwa privater KI-Verarbeitung in WhatsApp – zum Einsatz kommen. Der Rollout ist ab 2027 geplant.

Strategisch brisant ist zudem, dass Meta damit gegen den Branchentrend agiert. Während Amazon auf Graviton und Google auf Axion setzt, also eigene Serverprozessoren forciert, greift Meta bewusst auf Nvidia zurück – obwohl parallel an eigenen KI-Chips gearbeitet wird. Berichte über technische Herausforderungen und Verzögerungen deuten darauf hin, dass Eigenentwicklungen nicht immer planbar skalieren. Der Einkauf bei Nvidia schafft hier operative Sicherheit.

Auch Nvidia selbst steht unter Druck. Hyperscaler entwickeln zunehmend eigene Chips, OpenAI arbeitet mit Broadcom und AMD, Start-ups wie Cerebras adressieren gezielt Inferenz-Szenarien. Mit der Öffnung seines CPU-Portfolios und gezielten Lizenzdeals im Inferenz-Bereich versucht Nvidia, seine dominante Position zu verteidigen und sich breiter im Servermarkt aufzustellen – inklusive direkter Konkurrenz zu Intel und AMD.


Wir führen seit Jahren Beratung zu KI (Künstlicher Intelligenz) für KMUs (Klein- und Mittelständische Unternehmen) erfolgreich durch.

Mehr zu aktuellen Themen der #KI (Künstlichen Intelligenz) oder zu

Ihrem individuellen, optimalen "KI-Masterplan" für Ihr Unternehmen finden Sie in unserem Newsletter.

Abonnieren Sie den Newsletter hier:


Tags


Das könnte Sie auch interessieren

Abonnieren Sie jetzt unseren Newsletter!

>