Eine bahnbrechende Innovation von Nvidia könnte die Art und Weise, wie wir Künstliche Intelligenz trainieren, revolutionieren.
Nvidia hat kürzlich seine neueste Entwicklung im Bereich der GPU-Technologie vorgestellt, die darauf abzielt, das Training von KI-Modellen durch eine signifikante Leistungssteigerung zu beschleunigen. Die Einführung von HBM3e-Speicherbausteinen in die H100-GPU markiert einen signifikanten Fortschritt gegenüber den bisher verwendeten HBM3-Speichern. Diese Innovation wurde erstmals auf der Siggraph-Messe angekündigt und verspricht eine Verdreifachung der Effizienz im Vergleich zu aktuellen Modellen.
Der neue H100-GPU-Chip, bekannt als GH200, wird zusammen mit Nvidias eigenem ARM-Prozessor Grace auf einer gemeinsamen Platine angeboten. Mit einer RAM-Kapazität von 141 GByte und einer Übertragungsrate von etwa 5 TByte pro Sekunde setzt Nvidia neue Maßstäbe im Bereich der Grafikprozessoren. Zum Vergleich: Die vorherige H100-GPU-Variante mit HBM3-Speicher erreichte eine Übertragungsrate von 3,35 TByte pro Sekunde bei 80 GByte nutzbarem RAM.
Diese Verbesserungen bedeuten nicht nur eine höhere Geschwindigkeit beim KI-Training, sondern auch eine erweiterte Kapazität für die Verarbeitung komplexer Datenmengen. Nvidia hebt hervor, dass sich an der restlichen Ausstattung zwischen den Varianten „H100“, „H100 NVL“ und „H100(GH200-Board)“ nichts ändert, wobei alle auf 14.592 Shader-Kerne und eine Rechenleistung von etwa 4 Petaflops beim KI-Training (für FP8-Berechnung mit niedriger Genauigkeit) zurückgreifen. Trotz der beeindruckenden technischen Spezifikationen müssen sich Interessenten noch gedulden. Die ersten Systeme mit den neuen GH200-Boards sind erst für das zweite Quartal 2024 angekündigt, wobei die Lieferung der HBM3e-Speicherbausteine bis dahin gewährleistet sein soll.