Meta und AMD haben eine mehrjährige Partnerschaft geschlossen, die es in sich hat: Bis zu sechs Gigawatt an Instinct-GPUs sollen in Metas KI-Infrastruktur verbaut werden. Der Fokus liegt dabei ausdrücklich auf Inferenz – also dem produktiven Betrieb bereits trainierter Modelle. Für ein Unternehmen mit Milliarden Nutzern ist genau das der entscheidende Hebel, um KI-Funktionen in großem Maßstab zuverlässig und wirtschaftlich bereitzustellen.
Die ersten Lieferungen für den initialen Ausbau von einem Gigawatt sind für die zweite Jahreshälfte 2026 geplant. Danach soll die Infrastruktur schrittweise über mehrere Produktgenerationen hinweg auf bis zu sechs Gigawatt wachsen. Damit geht es nicht um ein kurzfristiges Experiment, sondern um eine strategische Neuausrichtung im Rechenzentrumsmaßstab.
Besonders bemerkenswert ist die Aktienkomponente des Deals: AMD erhält leistungsabhängige Optionsscheine über bis zu 160 Millionen Aktien – rund zehn Prozent der ausstehenden Anteile. Die Zuteilung ist an Kursziele und technische Meilensteine gekoppelt. Das schafft nicht nur eine Lieferbeziehung, sondern eine enge wirtschaftliche Verflechtung. Ein ähnliches Modell hatte zuvor bereits OpenAI mit AMD vereinbart.
Technisch basiert die Kooperation auf einer speziell für Meta angepassten Instinct-GPU auf MI450-Architektur. Ergänzt wird sie durch EPYC-Prozessoren der sechsten Generation („Venice“) sowie einen kommenden, workload-optimierten EPYC-Chip mit dem Codenamen „Verano“. Als Software-Stack kommt ROCm zum Einsatz, als Plattform die gemeinsam entwickelte Helios-Rack-Scale-Architektur aus dem Open Compute Project. Die Roadmaps für Silizium, Systeme und Software sollen eng verzahnt werden – faktisch eine vertikale Integration über den gesamten Infrastruktur-Stack.
Für AMD ist der Deal ein klares Signal an den Markt. Nvidia dominiert bislang nahezu unangefochten den Markt für KI-Beschleuniger. Mit Meta – neben OpenAI – gewinnt AMD jedoch eine weitere Referenz auf höchstem Niveau. Für Meta wiederum bedeutet die Partnerschaft mehr Unabhängigkeit und Verhandlungsmacht. Berichte über Preisnachlässe bei Nvidia durch strategische Alternativen wie Googles TPUs zeigen, wie relevant Diversifizierung geworden ist.
Gleichzeitig wächst der Wettbewerb weiter: Meta, Microsoft und AWS entwickeln eigene Chips, Start-ups wie Cerebras sichern sich Milliardenaufträge im Inferenzbereich. Der KI-Chipmarkt wird damit nicht nur größer, sondern auch deutlich komplexer.
