NVIDIA 發表 Vera Rubin:革命性六晶片 AI 運算平台於 CES 2026 首次亮相
新聞摘要
NVIDIA 在 2026 年消費電子展 (CES) 上正式推出了其革命性的 Vera Rubin AI 計算平台,標誌著人工智能基礎設施的重大突破。該公告於太平洋時間 2026 年 1 月 6 日星期一,由執行長 Jensen Huang 在主題演講中發布,介紹了下一代 AI 超級計算機架構,有望改變 AI 訓練和推理能力的格局。
革命性的六晶片架構,性能提升 5 倍,成本降低 10 倍
在拉斯維加斯舉行的 2026 年消費電子展上,NVIDIA 執行長 Jensen Huang 揭曉了該公司迄今為止最具野心的 AI 計算平台:Vera Rubin。該系統以開創性的美國天文學家 Vera Rubin 命名,代表了 NVIDIA 首個「極致協同設計」方法,整合了六個專用晶片,創造出該公司所稱的「一個令人難以置信的 AI 超級計算機」。
平台概述和技術規格
Vera Rubin 平台由六個精心設計的組件組成,可完美協同工作:
核心組件:
- Vera CPU:採用「空間多線程」技術的 88 核心客製化 ARM 處理器,可提供 176 線程性能
- Rubin GPU:基於台積電 3 奈米製程的雙晶片處理器,擁有 3360 億個電晶體和 288GB HBM4 記憶體
- NVLink 6 Switch:先進的互連技術,提供 28.8 TB/s 的頻寬
- ConnectX-9 SuperNIC:高性能網路介面,提供 1.6 Tb/s 的頻寬
- BlueField-4 DPU:用於增強安全性和卸載儲存的數據處理單元
- Spectrum-6 Ethernet Switch:用於數據中心網路的革命性矽光子技術
性能突破
Vera Rubin NVL72 機架級系統提供了前所未有的性能指標,樹立了新的行業標準。每顆 Rubin GPU 使用 NVIDIA 的 NVFP4 精確格式,可實現 50 PFLOPS 的推理性能,比前一代 Blackwell 架構提升了 5 倍。對於訓練工作負載,該系統可提供 35 PFLOPS 的性能,性能提升了 3.5 倍。
最引人注目的是,NVIDIA聲稱該平台將混合專家 (MoE) 模型推理成本降低高達 10 倍,同時與 Blackwell 系統相比,訓練所需的 GPU 數量僅為四分之一。這種顯著的效率提升,將極大地加速主流 AI 的採用。
記憶體和儲存創新
該平台引入了多項對下一代 AI 工作負載至關重要的記憶體創新。每顆 Rubin GPU 包含八個 HBM4 記憶體堆疊,提供 288GB 容量和令人印象深刻的 22 TB/s 記憶體頻寬,比 Blackwell 的 HBM3e 實現提升了 2.8 倍。
NVIDIA 還推出了其 AI 原生儲存解決方案——推理上下文記憶體儲存平台。這種專用的 KV 快取層通過 5 倍的更高 token 吞吐量、5 倍的總擁有成本性能以及 5 倍的電源效率,增強了長上下文推理能力。
市場影響和行業採用
此次發布對 AI 行業產生了重大影響,主要雲端服務供應商已紛紛定位為早期採用者。亞馬遜網路服務 (AWS)、Google Cloud、Microsoft Azure 和 Oracle Cloud Infrastructure 都已承諾在 2026 年下半年開始部署基於 Vera Rubin 的實例。
微軟計劃將 NVIDIA Vera Rubin NVL72 機架級系統整合到其下一代 Fairwater AI 超級工廠中,規模將達到數十萬個 NVIDIA Vera Rubin 超級晶片。CoreWeave 將把基於 Rubin 的系統整合到其 AI 雲端平台中,通過其 Mission Control 介面進行操作,以增強靈活性和性能。
生產時間表和可用性
NVIDIA 確認所有六個 Rubin 平台晶片均已成功從製造端返回,目前已全面投入生產。該公司預計將在 2026 年下半年提高產量,合作夥伴也將在同期提供基於 Rubin 的服務。
生產就緒標誌著 NVIDIA 的一個重要里程碑,儘管面臨日益複雜的性能要求,該公司仍保持著每年推出新一代 AI 超級計算機的節奏。
競爭格局影響
Vera Rubin 的發布正值 AI 基礎設施市場競爭日益激烈之際。超微 (AMD) 正在推出其 Helios 機架級系統,以直接與 NVIDIA 的產品競爭,而 Google 和 Amazon 等主要雲端服務供應商則繼續開發專有處理器。
儘管面臨這些競爭壓力,NVIDIA 的全面平台方法——將整個數據中心而非單個組件視為計算單元——使其在市場上獨樹一幟。極致協同設計理念確保了所有系統組件的優化性能,而非孤立的優化。
未來應用和用例
該平台專門針對新興的 AI 應用,包括代理式 AI、高級推理模型和複雜的混合專家架構。這些應用代表了人工智能的下一個前沿,超越了簡單的聊天機器人,進入能夠進行多步驟問題解決的複雜推理系統。
NVIDIA 將 Vera Rubin 定位為從傳統推理轉向執行長 Jensen Huang 所描述的「思考過程」的關鍵基礎設施——即 AI 系統能夠通過複雜查詢進行審慎推理,而不是僅提供即時響應。
更廣泛的技術生態系統
Vera Rubin 的發布伴隨著幾項補充技術的發布,包括用於自動駕駛汽車開發的 Alpamayo 開源推理模型系列,以及與工業自動化領導者西門子 (Siemens) 加強的合作夥伴關係。
這些公告強化了 NVIDIA 創建全面生態系統而非獨立產品的策略,將該公司定位為跨多個行業下一代 AI 應用的基礎設施提供商。
Vera Rubin 平台不僅僅是一次硬體升級,它體現了 NVIDIA 對 AI 基礎設施的願景,能夠支持未來人工智能系統的大規模和複雜性需求。隨著人工智能從實驗性技術轉向工業規模部署,Vera Rubin 等平台可能對於實現人工智能在社會和全球經濟中的全部潛力至關重要。