NVIDIA的Nemotron 3 Super重寫開源代理式AI的規則
新聞摘要
美國東部時間 2026 年 3 月 11 日星期三,NVIDIA 正式發布了 Nemotron 3 Super,這是一款專為自主多代理 AI 應用而設計的強大新型開源大型語言模型。此次發布標誌著 NVIDIA 在引領美國開源 AI 領域的更廣泛戰略中邁出了重要一步,據報導,該公司已投資 260 億美元用於開源模型 AI 開發。
1200 億參數的強大模型
Nemotron 3 Super 是一個擁有 1200 億參數的模型,由於其混合專家混合(MoE)架構,在推理過程中僅使用 120 億活躍參數。該設計結合了 Mamba-2 狀態空間層和 Transformer 注意力層,使模型能夠以卓越的記憶體和計算效率處理長上下文任務。其吞吐量是前代 Nemotron Super 的 5 倍以上,準確度聲稱比上一代高 2 倍。
解決代理式 AI 的兩大核心問題
NVIDIA 開發 Nemotron 3 Super 是為了直接解決多代理 AI 系統中兩個持續存在的瓶頸。第一個是「上下文爆炸」——當代理在每次輪次中重新發送工具輸出、推理步驟和對話歷史時,會出現指數級的 token 增長。為了解決這個問題,Nemotron 3 Super 具有原生的百萬 token 上下文窗口,使代理能夠在延長的任務中保持完整的工作流程意識,而不會偏離其原始目標。
第二個是「思考稅」——在複雜的工作流程中為每個子任務部署大型推理模型所產生的巨額成本。該模型的混合 MoE 架構和三項核心創新直接解決了這個問題:潛在 MoE(以相同的計算成本激活四倍的專家專員)、多 token 預測(每次前向傳播預測多個 token,顯著縮短生成時間)以及原生 NVFP4 精度訓練(與 Hopper 上的 FP8 相比,在 NVIDIA Blackwell GPU 上可實現高達 4 倍的推理速度)。
完全開源且適合企業使用
與許多高性能模型不同,Nemotron 3 Super 以允許性許可證發布了完全開放的權重、數據集和訓練配方。NVIDIA 發布了超過 10 兆個經過精心策劃的預訓練 token、4000 萬個訓練後樣本以及涵蓋 21 種配置的強化學習環境。開發人員可以在 Hugging Face、build.nvidia.com、OpenRouter 和 Perplexity 上訪問該模型,並通過 NVIDIA NIM 微服務進行部署。
企業客戶可通過 Google Cloud Vertex AI 和 Oracle Cloud Infrastructure 獲得企業級支持,Amazon Bedrock 和 Microsoft Azure 的部署也即將推出。
行業採用和基準測試表現
領先的 AI 原生公司已經集成了該模型。Perplexity 將 Nemotron 3 Super 作為其 Computer 產品中 20 個協調模型之一提供。軟件開發代理公司 CodeRabbit、Factory 和 Greptile 正在部署它以提高準確性並降低計算成本。Palantir、Cadence、Siemens 和 Amdocs 等企業巨頭也已承諾進行集成。
在競爭性基準測試方面,Nemotron 3 Super 在效率和開放性方面均位居 Artificial Analysis 的榜首。由 Nemotron 3 Super 提供支持的 NVIDIA AI-Q 研究代理在 DeepResearch Bench 和 DeepResearch Bench II 上均排名第一。該模型在 PinchBench 上得分 85.6%,表現優於 Anthropic 的 Claude Opus 4.5、Kimi 2.5 和 GPT-OSS 120B。在吞吐量比較中,它比 OpenAI 的 GPT-OSS 120B 快 2.2 倍,比阿里巴巴的 Qwen3.5-122B 快 7.5 倍。
更大的圖景:開放式 AI 作為國家戰略
NVIDIA 首席執行官黃仁勳強調了開放式創新的戰略重要性,他表示公司旨在將先進 AI 轉變為一個開放平台,為開發人員提供構建大規模代理系統所需的透明度和效率。分析人士指出,Nemotron 3 的發布也是一項地緣政治舉措——隨著中國的 Qwen 和 Kimi 模型在開源領域佔據主導地位,Nemotron 為美國提供了一個具有競爭力且完全透明的替代方案。
Nemotron 3 Super 位於 Nemotron 3 系列的中間,位於先前發布的 300 億參數 Nemotron 3 Nano(於 2025 年 12 月推出)之上,以及預計的 5000 億參數 Nemotron 3 Ultra(發布日期尚未公布)之下。