Nvidia nutzt die CES 2026 in Las Vegas, um eine klare Botschaft zu platzieren: Das Unternehmen will nicht nur die schnellsten GPUs liefern, sondern die gesamte KI-Wertschöpfungskette vom Rechenzentrum bis ins Endgerät prägen. Im Fokus stehen dabei drei Themenblöcke – die neue Vera-Rubin-Computing-Plattform, eine Open-Source-Offensive für autonomes Fahren und ein deutlich verbessertes KI-Upscaling für Spiele. Was heißt das konkret für Leistung, Kosten und strategische Abhängigkeiten?
Mit Vera Rubin skizziert Nvidia den nächsten großen Sprung bei KI-Compute
Im Zentrum der Ankündigungen steht die nach der Astronomin Vera Rubin benannte Plattform. Nvidia beschreibt sie nicht als einzelnen Chip, sondern als komplette KI-Computing-Architektur, die aus sechs Bausteinen besteht: Vera-CPU, Rubin-GPU, NVLink-6-Switch, ConnectX-9 SuperNIC, BlueField-4 DPU und Spectrum-6 Ethernet Switch. Laut Nvidia befindet sich das System bereits in „voller Produktion“ und soll ab der zweiten Jahreshälfte 2026 bei Partnern verfügbar sein.
Die Leistungsversprechen sind ambitioniert: Gegenüber Blackwell soll Rubin beim KI-Training dreifach zulegen und bei der KI-Inferenz sogar den Faktor fünf erreichen – allerdings bezogen auf NVFP4. Für Unternehmen, die Inferenzkosten eng kalkulieren müssen, ist vor allem ein Punkt interessant: Nvidia stellt eine zehnfach günstigere Token-Inferenz in Aussicht. Möglich machen soll das unter anderem eine dritte Generation der Transformer Engine mit hardwarebeschleunigter adaptiver Kompression. Zusätzlich betont Nvidia die Skalierung im Rack: Das Vera Rubin NVL72-System soll 260 Terabyte pro Sekunde Bandbreite erreichen, NVLink der sechsten Generation liefert pro GPU 3,6 Terabyte pro Sekunde.
Gleichzeitig lohnt ein nüchterner Blick auf die Formulierung „volle Produktion“. Medien wie Wired weisen darauf hin, dass bei derart komplexen Plattformen typischerweise zunächst niedrige Volumina in Produktion gehen, während Tests und Validierung weiterlaufen. In diesem Kontext lesen viele Analysten die CES-Bühne auch als Signal an Investoren: Nvidia möchte demonstrieren, dass die Rubin-Roadmap steht – nicht zuletzt, weil es am Markt zuletzt Gerüchte über Verzögerungen gab und Blackwell 2024 bereits mit Auslieferungsproblemen durch einen Designfehler (Überhitzung in Server-Racks) zu kämpfen hatte.
Open Source für autonome Fahrzeuge: Alpamayo als „Teacher“-Schicht
Parallel zur Rechenzentrums-Roadmap verstärkt Nvidia den Druck im Automotive-Markt. Mit Alpamayo kündigt das Unternehmen eine Plattform an, die Open-Source-Modelle, Simulationstools und Datensätze für autonomes Fahren bündelt. Im Mittelpunkt steht ein Vision-Language-Action-Modell, das Szenarien Schritt für Schritt durchdenken soll – mit einem Chain-of-Thought-Ansatz, der stärker auf „Reasoning“ setzt als klassische Pipeline-Architekturen.
Alpamayo 1 (zehn Milliarden Parameter) ist auf Hugging Face verfügbar; ergänzend kommen AlpaSim als Open-Source-Simulation (GitHub) und ein Datensatz mit mehr als 1.700 Stunden Fahrdaten. Der praktische Nutzen liegt vor allem in der Abdeckung von „Long-Tail“-Situationen: seltene, aber kritische Sonderfälle, die autonome Systeme traditionell aus dem Tritt bringen. Wichtig ist dabei die Einordnung: Nvidia positioniert Alpamayo nicht als direktes In-Car-Modell, sondern als großes Teacher-Modell, das Entwickler für ihre eigenen AV-Stacks anpassen, feintunen und destillieren.
Mercedes-Benz setzt 2026 auf Nvidia – Dual-Stack als Sicherheitsversprechen
Dass Nvidia Automotive nicht nur „Research-Demos“ zeigt, sondern konkrete Roadmaps liefern will, unterstreicht Mercedes-Benz: Der Hersteller will 2026 im neuen CLA in den USA Nvidias DRIVE-AV-Software einführen. Technisch setzt das System auf eine Dual-Stack-Architektur: Ein KI-End-to-End-Stack übernimmt die Kernfunktionen, ein klassischer Safety-Stack auf Basis von Nvidia Halos sorgt für Redundanz.
Bemerkenswert ist auch die Wettbewerbskonstellation, die Nvidia offen adressiert: Intern vergleicht man das System mit Teslas Full Self-Driving, und Beobachter verweisen auf einen strategischen Vorteil für Nvidia – Tesla ist zugleich einer der größten Kunden und nutzt Zehntausende GPUs für Training. Selbst wenn Tesla im autonomen Fahren vorn liegt, profitiert Nvidia weiterhin als Infrastruktur-Lieferant.
Roadmap bis 2028: Große Ziele, aber viele offene Fragen
Obwohl die Automotive-Sparte im Vergleich zum Gesamtgeschäft klein ist (592 Millionen US-Dollar Umsatz im dritten Quartal bei insgesamt 51,2 Milliarden US-Dollar, rund 1,2 Prozent Anteil), präsentiert Nvidia eine aggressive Zeitplanung: Level-2-Funktionen für Autobahn und Stadt in der ersten Jahreshälfte 2026, L2++ mit breiter US-Abdeckung bis Ende 2026, ein kleiner Level-4-Testbetrieb ebenfalls 2026 und Level-4-Technologie für Privatfahrzeuge sowie Level-3-Autobahnfahren bis 2028.
Gerade Level 3 bleibt allerdings umstritten, weil Fahrer zeitweise Hände und Augen abwenden dürfen – und damit in realen Unfallszenarien Verantwortungs- und Haftungsfragen schwierig werden. Technisch ist das eine Sache, regulatorisch und gesellschaftlich eine andere.
DLSS 4.5: KI-Upscaling wird sichtbar erwachsener
Für die Gaming-Welt bringt Nvidia mit DLSS 4.5 ein überarbeitetes Transformer-Modell für Super Resolution und eine neue Dynamic Multi Frame Generation. Ein neuer 6x Multi-Frame-Generation-Modus ist exklusiv für die RTX-50-Serie vorgesehen. Ziel ist es, typische Schwächen früherer Verfahren – etwa Detailverluste und „zerdrückte“ Kontraste durch Helligkeitskompression – zu beseitigen. Nvidia argumentiert, das Modell sei leistungsfähig genug, um Flackern auch ohne diese Kompression zu kontrollieren, wodurch helle Reflexionen und Neonlichter ihren vollen Dynamikumfang behalten sollen. Zusätzlich passt die dynamische Frame-Generierung den Multiplikator automatisch an die Monitorfrequenz und die jeweilige Szenenlast an.
