Nvidia-CEO Jensen Huang enthüllte auf der Computex-Keynote die neueste Innovation der Rechenbeschleunigerfamilie Blackwell, den GB200 NVL2, der speziell für das Training großer KI-Modelle entwickelt wurde.
Die nächste Generation der KI-Rechenbeschleunigung
Auf der Computex-Keynote präsentierte Jensen Huang, CEO von Nvidia, den neuesten Fortschritt in der Welt der Rechenbeschleuniger: Den GB200 NVL2. Dieser beeindruckende Rackeinschub im MGX-Format ist mit zwei GB200-Prozessoren ausgestattet und passt problemlos in bestehende Rechenzentren. Die GB200-Prozessoren bestehen jeweils aus einem Blackwell-Doppelchip und einer Grace-CPU mit 72 ARM-Kernen, was eine Rechenleistung von bis zu 40 Petaflops bei KI-Anwendungen ermöglicht.
Mit 1,3 TByte Arbeitsspeicher, davon 384 GByte ultraschneller HBM3e-RAM mit einem Durchsatz von 8 TByte/s pro Chip, bietet der GB200 NVL2 eine beeindruckende Speicher- und Verarbeitungskapazität. Die GB200-Prozessoren kommunizieren untereinander über NVLink mit einer Geschwindigkeit von 2 x 900 GByte/s, was eine hocheffiziente Datenübertragung gewährleistet.
Ausblick auf zukünftige Generationen
Zum Abschluss seiner Präsentation gab Huang einen spannenden Ausblick auf die kommenden Generationen der KI-Beschleuniger. Im Jahr 2025 soll die verbesserte Version Blackwell Ultra mit 12 HBM3e-Stacks auf den Markt kommen, gefolgt von der Rubin-Plattform im Jahr 2026, die mit HBM4-Speicher und der neuen ARM-CPU Vera sowie fortschrittlichen Netzwerk-Chips ausgestattet sein wird. Diese Entwicklungen zielen darauf ab, die Rechenleistung und Bandbreite in Rechenzentren weiter zu steigern und somit die Möglichkeiten für KI-Anwendungen erheblich zu erweitern.