NVIDIA、ヴェラ・ルービンを発表:革新的な6チップAIコンピューティングプラットフォームがCES 2026でデビュー
ニュースサマリー
NVIDIAは、革新的なAIコンピューティングプラットフォーム「Vera Rubin」をCES 2026で正式に発表し、人工知能インフラストラクチャにおける大きな進歩を遂げました。2026年1月6日(太平洋時間)月曜日のCEOジェンスン・フアン氏の基調講演で発表されたこの次世代AIスーパーコンピューターアーキテクチャは、AIのトレーニングと推論能力の様相を一変させることを約束します。
革新的な6チップアーキテクチャが5倍の性能向上と10倍のコスト削減を実現
ラスベガスで開催されたCES 2026で、NVIDIAのCEOジェンスン・フアン氏は、同社史上最も野心的なAIコンピューティングプラットフォーム「Vera Rubin」を発表しました。アメリカの先駆的な天文学者バー・ルービンにちなんで名付けられたこの画期的なシステムは、NVIDIA初の「エクストリーム・コデザイン」アプローチを採用し、6つの特殊チップを統合して、同社が「驚異的なAIスーパーコンピューター」と呼ぶものを創造しました。
プラットフォーム概要と技術仕様
Vera Rubinプラットフォームは、完璧に調和して動作する6つの綿密に設計されたコンポーネントで構成されています。
コアコンポーネント:
- Vera CPU: 「空間マルチスレッディング」技術を備えた88コアカスタムARMプロセッサ。実質176スレッドのパフォーマンスを提供します。
- Rubin GPU: TSMCの3nmプロセスで構築されたデュアルダイプロセッサ。3360億個のトランジスタと288GBのHBM4メモリを搭載しています。
- NVLink 6 Switch: 28.8 TB/sの帯域幅を提供する先進的なインターコネクト技術です。
- ConnectX-9 SuperNIC: 1.6 Tb/sの帯域幅を提供する高性能ネットワークインターフェイスです。
- BlueField-4 DPU: セキュリティとストレージオフロードを強化するためのデータ処理ユニットです。
- Spectrum-6 Ethernet Switch: データセンターネットワーキングのための革新的なシリコンフォトニクス技術です。
パフォーマンスのブレークスルー
Vera Rubin NVL72ラック規模システムは、新たな業界標準を打ち立てる前例のないパフォーマンスメトリクスを提供します。各Rubin GPUは、NVIDIAのNVFP4精度フォーマットを使用して50 PFLOPSの推論パフォーマンスを達成し、前世代のBlackwellアーキテクチャと比較して5倍の改善を実現しています。トレーニングワークロードでは、システムは35 PFLOPSを提供し、パフォーマンスを3.5倍向上させています。
最も注目すべきは、NVIDIAが、このプラットフォームにより、混合エキスパート(MoE)モデルの推論コストを最大10倍削減し、トレーニングに必要なGPU数をBlackwellシステムと比較して4分の1に抑えると主張していることです。この劇的な効率向上は、プラットフォームがメインストリームAIの採用を大幅に加速させることを可能にします。
メモリとストレージのイノベーション
このプラットフォームは、次世代AIワークロードに不可欠ないくつかのメモリイノベーションを導入しています。各Rubin GPUは8スタックのHBM4メモリを搭載し、288GBの容量と印象的な22 TB/sのメモリ帯域幅を提供します。これはBlackwellのHBM3e実装と比較して2.8倍の改善です。
NVIDIAはまた、AIネイティブストレージソリューションであるInference Context Memory Storage Platformを発表しました。この特殊なKVキャッシュティアは、5倍高いトークン処理能力、5倍優れた総所有コストあたりのパフォーマンス、および5倍改善された電力効率により、ロングコンテキスト推論を強化します。
市場への影響と業界の採用
この発表はAI業界に大きな影響を与えており、主要なクラウドプロバイダーはすでに早期採用者としての地位を確立しています。Amazon Web Services、Google Cloud、Microsoft Azure、Oracle Cloud Infrastructureはすべて、2026年後半からVera Rubinベースのインスタンスを展開することを約束しています。
Microsoftは、NVIDIA Vera Rubin NVL72ラック規模システムを次世代のFairwater AIスーパーファクトリーサイトに統合し、数千ものNVIDIA Vera Rubinスーパーチップにスケールアップする計画です。CoreWeaveは、RubinベースのシステムをAIクラウドプラットフォームに組み込み、Mission Controlインターフェイスを通じて運用し、柔軟性とパフォーマンスを向上させます。
生産スケジュールと入手可能性
NVIDIAは、Rubinプラットフォームの6つのチップすべてが製造から戻り、現在フル生産中であることを確認しました。同社は2026年後半に量産を拡大する見込みであり、パートナーも同時期にRubinベースのサービスを提供する予定です。
生産準備が整ったことは、NVIDIAにとって重要なマイルストーンであり、複雑さとパフォーマンス要求が増大する中でも、新世代AIスーパーコンピューターを提供する年次ペースを維持しています。
競合環境への影響
Vera Rubinの発表は、AIインフラ市場における競争激化の中で行われました。Advanced Micro Devicesは、NVIDIAの製品と直接競合するHeliosラック規模システムを発売しており、GoogleやAmazonなどの主要クラウドプロバイダーは独自のプロセッサ開発を続けています。
これらの競争圧力にもかかわらず、NVIDIAの包括的なプラットフォームアプローチ(個々のコンポーネントではなく、データセンター全体をコンピューティングの単位として扱う)は、同社を市場でユニークな位置に置いています。エクストリーム・コデザインの哲学は、個別の最適化ではなく、すべてのシステムコンポーネントにわたる最適化されたパフォーマンスを保証します。
将来のアプリケーションとユースケース
このプラットフォームは、エージェンティブAI、高度な推論モデル、洗練された混合エキスパートアーキテクチャなどの新しいAIアプリケーションを特にターゲットとしています。これらのアプリケーションは、単純なチャットボットを超え、多段階の問題解決が可能な複雑な推論システムへと、人工知能の次のフロンティアを表しています。
NVIDIAは、Vera Rubinを、従来の推論から、CEOジェンスン・フアン氏が「思考プロセス」と表現する、即時応答ではなく複雑なクエリを熟考し推論するAIシステムへの移行に不可欠なインフラストラクチャとして位置づけています。
広範なテクノロジーエコシステム
Vera Rubinの発表には、自動運転車開発のためのAlpamayoオープン推論モデルファミリーや、産業オートメーションリーダーであるシーメンスとのパートナーシップ強化など、いくつかの補完的なテクノロジー発表も伴いました。
これらの発表は、スタンドアロン製品ではなく包括的なエコシステムを構築するというNVIDIAの戦略を強化し、同社を複数の業界にわたる次世代AIアプリケーションの基盤インフラストラクチャプロバイダーとして位置づけています。
Vera Rubinプラットフォームは、単なるハードウェアのアップグレード以上のものです。それは、将来の人工知能システムの巨大なスケールと複雑さの要件をサポートできるAIインフラストラクチャに対するNVIDIAのビジョンを体現しています。AIが実験的な技術から産業規模の展開へと移行するにつれて、Vera Rubinのようなプラットフォームは、社会全体および世界経済における人工知能の可能性を最大限に引き出すために不可欠となる可能性があります。