Entdecken Sie, wie Google die Entwicklung von KI mit seiner neuesten Innovation beschleunigt.
Bei der renommierten Fachkonferenz „Hot Chips“ auf dem Campus der Stanford-Universität in Kalifornien hat Google die Funktion seines selbst entwickelten KI-Beschleunigers, bekannt als TPU (Tensor Processing Unit), vorgestellt. Diese spezialisierte Hardware wurde entwickelt, um die Inferenz von ML-Modellen (Machine Learning) zu beschleunigen, was bedeutet, dass sie dabei hilft, aus bestehendem Wissen neues Wissen zu generieren.
Die TPU steht im Zentrum von Googles Bestrebungen, die Entwicklung neuer Chips voranzutreiben, eine Aufgabe, die zunehmend komplexer und zeitintensiver wird. Google hat den Entwicklungsprozess in vier Hauptphasen gegliedert: Konzeption, Implementierung, Tape-Out bei Fertigungspartnern und das Anlaufen der Massenproduktion. Interessanterweise spielt die TPU auch eine Rolle bei der Entwicklung ihres eigenen Nachfolgers, indem sie bei der Platzierung von Makros oder Blöcken innerhalb des Chips massiv Zeit einspart. Experten benötigen normalerweise 6-8 Personenwochen, um einen TPU-Block für die nächste Generation zusammenzustellen. Mit KI wird dieselbe Aufgabe innerhalb von 24 Stunden erledigt, und das mit besseren Ergebnissen: Die KI wählt Layouts, die etwa 3 Prozent effizienter in Bezug auf die Leitungslänge sind. Während menschliche Ingenieure zu einem symmetrischen Aufbau neigen, erstellt die KI Layouts, die rund und organisch sind, was die Effizienz weiter steigert.