NVIDIA enthüllt Vera Rubin: Revolutionäre KI-Computing-Plattform mit sechs Chips debütiert auf der CES 2026

January 07, 2026
NVIDIA
5 min

Zusammenfassung der Nachrichten

NVIDIA hat auf der Consumer Electronics Show (CES) 2026 offiziell seine revolutionäre Vera Rubin KI-Computing-Plattform vorgestellt und damit einen bedeutenden Durchbruch in der künstlichen Intelligenz-Infrastruktur erzielt. Die Ankündigung, die während der Keynote-Präsentation von CEO Jensen Huang am Montag, dem 6. Januar 2026 (Pacific Time), erfolgte, stellt eine KI-Supercomputer-Architektur der nächsten Generation vor, die das Potenzial hat, die Landschaft der KI-Trainings- und Inferenzfähigkeiten zu verändern.

Revolutionäre Sechs-Chip-Architektur verspricht 5-fache Leistungssteigerung und 10-fache Kostenreduzierung

Auf der Consumer Electronics Show 2026 in Las Vegas stellte NVIDIA CEO Jensen Huang die bisher ehrgeizigste KI-Computing-Plattform des Unternehmens vor: Vera Rubin. Benannt nach der wegweisenden amerikanischen Astronomin, repräsentiert dieses bahnbrechende System NVIDIAs ersten "Extreme Co-Design"-Ansatz, bei dem sechs spezialisierte Chips integriert werden, um das zu schaffen, was das Unternehmen als "einen unglaublichen KI-Supercomputer" bezeichnet.

Plattformübersicht und technische Spezifikationen

Die Vera Rubin-Plattform besteht aus sechs sorgfältig entwickelten Komponenten, die perfekt harmonieren:

Kernkomponenten:

  • Vera CPU: Ein benutzerdefinierter ARM-Prozessor mit 88 Kernen und "Spatial Multi-Threading"-Technologie, der effektiv eine Leistung von 176 Threads liefert
  • Rubin GPU: Ein Dual-Die-Prozessor, der auf TSMCs 3-nm-Verfahren basiert, 336 Milliarden Transistoren und 288 GB HBM4-Speicher aufweist
  • NVLink 6 Switch: Fortschrittliche Interconnect-Technologie mit einer Bandbreite von 28,8 TB/s
  • ConnectX-9 SuperNIC: Hochleistungs-Netzwerkschnittstelle mit einer Bandbreite von 1,6 Tb/s
  • BlueField-4 DPU: Data Processing Unit für verbesserte Sicherheit und Offloading von Speicheraufgaben
  • Spectrum-6 Ethernet Switch: Revolutionäre Siliziumphotonik-Technologie für Rechenzentrumsnetzwerke

Leistungssprünge

Das Vera Rubin NVL72 Rack-Scale-System liefert beispiellose Leistungskennzahlen, die neue Industriestandards setzen. Jede Rubin GPU erreicht eine Inferenzleistung von 50 PFLOPS im NVFP4-Präzisionsformat von NVIDIA – eine 5-fache Verbesserung gegenüber der vorherigen Blackwell-Architektur. Für Trainings-Workloads liefert das System 35 PFLOPS, was einer Leistungssteigerung von 3,5x entspricht.

Besonders bemerkenswert ist, dass NVIDIA behauptet, die Plattform reduziere die Kosten für die Inferenz von Mixture-of-Experts (MoE)-Modellen um bis zu 10x, während sie für das Training nur ein Viertel der GPUs im Vergleich zu Blackwell-Systemen benötigt. Diese dramatische Effizienzsteigerung positioniert die Plattform, um die Mainstream-KI-Adoption erheblich zu beschleunigen.

Speicher- und Innovationen im Bereich Speicherung

Die Plattform führt mehrere Speicherinnovationen ein, die für KI-Workloads der nächsten Generation entscheidend sind. Jede Rubin GPU verfügt über acht Stapel HBM4-Speicher mit einer Kapazität von 288 GB und einer beeindruckenden Speicherbandbreite von 22 TB/s – eine 2,8-fache Verbesserung gegenüber Blackwells HBM3e-Implementierung.

NVIDIA hat auch seine KI-native Speicherlösung, die Inference Context Memory Storage Platform, vorgestellt. Diese spezialisierte KV-Cache-Schicht verbessert die Inferenz mit langem Kontext durch einen 5-mal höheren Token-Durchsatz, eine 5-mal bessere Leistung pro Gesamtkosten und eine 5-mal höhere Energieeffizienz.

Marktauswirkungen und Branchenakzeptanz

Die Ankündigung hat erhebliche Auswirkungen auf die KI-Branche, wobei große Cloud-Anbieter sich bereits als frühe Anwender positionieren. Amazon Web Services, Google Cloud, Microsoft Azure und Oracle Cloud Infrastructure haben sich alle verpflichtet, Vera Rubin-basierte Instanzen ab der zweiten Jahreshälfte 2026 einzusetzen.

Microsoft plant, NVIDIA Vera Rubin NVL72 Rack-Scale-Systeme in seine Fairwater AI-Superfabriken der nächsten Generation zu integrieren und auf Hunderttausende von NVIDIA Vera Rubin Superchips zu skalieren. CoreWeave wird Rubin-basierte Systeme in seine KI-Cloud-Plattform integrieren, die über seine Mission Control-Oberfläche für verbesserte Flexibilität und Leistung betrieben wird.

Produktionszeitplan und Verfügbarkeit

NVIDIA bestätigte, dass alle sechs Rubin-Plattform-Chips erfolgreich aus der Fertigung zurückgekehrt sind und sich derzeit in der vollen Produktion befinden. Das Unternehmen erwartet, die Massenproduktion in der zweiten Jahreshälfte 2026 hochzufahren, wobei Partner im gleichen Zeitraum Rubin-basierte Dienste anbieten werden.

Die Produktionsbereitschaft markiert einen wichtigen Meilenstein für NVIDIA, das seine jährliche Kadenz bei der Lieferung von KI-Supercomputern der neuen Generation beibehalten hat, trotz zunehmender Komplexität und Leistungsanforderungen.

Implikationen für die Wettbewerbslandschaft

Die Ankündigung von Vera Rubin erfolgt inmitten eines sich verschärfenden Wettbewerbs auf dem Markt für KI-Infrastruktur. Advanced Micro Devices bringt seine Helios Rack-Scale-Systeme auf den Markt, um direkt mit den Angeboten von NVIDIA zu konkurrieren, während große Cloud-Anbieter, darunter Google und Amazon, weiterhin proprietäre Prozessoren entwickeln.

Trotz dieses Wettbewerbsdrucks positioniert NVIDIAs umfassender Plattformansatz – der das gesamte Rechenzentrum und nicht einzelne Komponenten als Recheneinheit betrachtet – das Unternehmen einzigartig auf dem Markt. Die Extreme Co-Design-Philosophie gewährleistet eine optimierte Leistung über alle Systemkomponenten hinweg und nicht eine isolierte Optimierung.

Zukünftige Anwendungen und Anwendungsfälle

Die Plattform zielt speziell auf aufkommende KI-Anwendungen ab, darunter agentielle KI, fortschrittliche Reasoning-Modelle und ausgeklügelte Mixture-of-Experts-Architekturen. Diese Anwendungen stellen die nächste Grenze der künstlichen Intelligenz dar und gehen über einfache Chatbots hinaus zu komplexen Reasoning-Systemen, die in der Lage sind, Probleme in mehreren Schritten zu lösen.

NVIDIA positioniert Vera Rubin als essentielle Infrastruktur für den Übergang von der traditionellen Inferenz zu dem, was CEO Jensen Huang als "Denkprozesse" beschreibt – KI-Systeme, die komplexe Anfragen deliberieren und begründen, anstatt sofortige Antworten zu geben.

Breiteres Technologie-Ökosystem

Die Ankündigung von Vera Rubin wurde von mehreren ergänzenden Technologievorstellungen begleitet, darunter die Alpamayo-Familie von Open-Reasoning-Modellen für die Entwicklung autonomer Fahrzeuge und erweiterte Partnerschaften mit dem Automatisierungsführer Siemens.

Diese Ankündigungen bekräftigen NVIDIAs Strategie, umfassende Ökosysteme anstelle von eigenständigen Produkten zu schaffen, und positionieren das Unternehmen als grundlegenden Infrastrukturanbieter für die nächste Generation von KI-Anwendungen in verschiedenen Branchen.

Die Vera Rubin-Plattform stellt mehr als ein Hardware-Upgrade dar – sie verkörpert NVIDIAs Vision für eine KI-Infrastruktur, die in der Lage ist, die massiven Skalierungs- und Komplexitätsanforderungen zukünftiger künstlicher Intelligenzsysteme zu unterstützen. Da KI sich von einer experimentellen Technologie zu einer industriellen Bereitstellung entwickelt, könnten Plattformen wie Vera Rubin unerlässlich sein, um das volle Potenzial der künstlichen Intelligenz in Gesellschaft und globaler Wirtschaft zu realisieren.