NVIDIAのNemotron 3 SuperがオープンソースのエージェントAIの常識を塗り替える
ニュースサマリー
2026年3月11日(米国東部時間)水曜日、NVIDIAは、自律型マルチエージェントAIアプリケーション向けに特別に設計された強力な新しいオープンソース大規模言語モデル「Nemotron 3 Super」を正式に発表しました。このリリースは、オープンモデルAI開発への260億ドルという巨額の投資に支えられ、米国におけるオープンソースAI分野をリードするというNVIDIAの広範な戦略における重要な節目となります。
1200億パラメータの強力なモデル
Nemotron 3 Superは1200億パラメータのモデルですが、ハイブリッドMixture-of-Experts(MoE)アーキテクチャのおかげで、推論時にはわずか120億のアクティブパラメータで動作します。この設計は、Mamba-2状態空間レイヤーとTransformerアテンションレイヤーを組み合わせ、モデルが優れたメモリと計算効率で長文コンテキストタスクを処理できるようにします。前世代のNemotron Superと比較して5倍以上のスループットを実現し、精度は2倍向上したと主張しています。
エージェント型AIの2つのコア問題の解決
NVIDIAは、マルチエージェントAIシステムにおける2つの持続的なボトルネックに直接対処するためにNemotron 3 Superを構築しました。1つ目は「コンテキスト爆発」です。これは、エージェントがターンごとにツール出力、推論ステップ、会話履歴を再送信する際に発生する指数関数的なトークン増加です。これを克服するため、Nemotron 3 Superはネイティブな100万トークンのコンテキストウィンドウを備えており、エージェントは元の目標との整合性を失うことなく、長時間のタスクで完全なワークフロー認識を維持できます。
2つ目は「思考コスト」です。これは、複雑なワークフローの各サブタスクに大規模な推論モデルを展開する際の法外なコストです。モデルのハイブリッドMoEアーキテクチャと3つのコアイノベーションがこれを直接解決します。Latent MoE(同じ計算コストで4倍のエキスパートスペシャリストをアクティブ化)、Multi-Token Prediction(フォワードパスごとに複数のトークンを予測し、生成時間を大幅に短縮)、ネイティブNVFP4精度トレーニング(HopperのFP8と比較してNVIDIA Blackwell GPUで最大4倍高速な推論を可能にします)。
完全にオープンでエンタープライズ対応
多くの高性能モデルとは異なり、Nemotron 3 Superは、寛容なライセンスの下で完全にオープンなウェイト、データセット、トレーニングレシピとともにリリースされます。NVIDIAは、10兆以上のキュレーションされた事前トレーニングトークン、4000万のトレーニング後サンプル、21の構成にわたる強化学習環境を公開しています。開発者はHugging Face、build.nvidia.com、OpenRouter、Perplexityでモデルにアクセスし、NVIDIA NIMマイクロサービスを介して展開できます。
エンタープライズアクセスは、Google Cloud Vertex AIおよびOracle Cloud Infrastructureを通じて利用可能であり、Amazon BedrockおよびMicrosoft Azureでの展開も近日中に予定されています。
業界の採用とベンチマークパフォーマンス
主要なAIネイティブ企業はすでにこのモデルを統合しています。Perplexityは、Computer製品の20のオーケストレーションモデルの1つとしてNemotron 3 Superを提供しています。ソフトウェア開発エージェント企業であるCodeRabbit、Factory、Greptileは、計算コストを削減しながら精度を向上させるためにこれを展開しています。Palantir、Cadence、Siemens、Amdocsなどのエンタープライズ大手も統合を約束しています。
競争ベンチマークの面では、Nemotron 3 Superは効率性とオープン性においてArtificial Analysisでトップの座を獲得しました。Nemotron 3 Superを搭載したNVIDIAのAI-Qリサーチエージェントは、DeepResearch BenchとDeepResearch Bench IIの両方でNo.1に到達しました。このモデルはPinchBenchで85.6%を記録し、AnthropicのClaude Opus 4.5、Kimi 2.5、GPT-OSS 120Bを上回りました。スループット比較では、OpenAIのGPT-OSS 120Bより2.2倍、AlibabaのQwen3.5-122Bより7.5倍高速です。
より大きな視点:オープンAIは国家戦略として
NVIDIAのCEOであるジェンスン・フアンは、オープンイノベーションの戦略的重要性について強調し、同社が高度なAIをオープンプラットフォームに変革し、開発者がエージェントシステムを大規模に構築するために必要な透明性と効率性を提供することを目指していると述べました。アナリストは、Nemotron 3のリリースは地政学的な動きでもあると指摘しています。中国のQwenおよびKimiモデルがオープンソース分野を支配しているため、Nemotronは米国に競争力のある、完全に透明な代替手段を提供します。
Nemotron 3 SuperはNemotron 3ファミリーの中間に位置し、以前リリースされた300億パラメータのNemotron 3 Nano(2025年12月発売)の上に、そしてリリース日がまだ発表されていない予想される5000億パラメータのNemotron 3 Ultraの下に位置します。