英伟达 Nemotron 3 Super 重写开源智能体AI规则

2026-03-13
英伟达
4 min

新闻摘要

2026年3月11日(美国东部时间)星期三,英伟达(NVIDIA)正式发布了Nemotron 3 Super,这是一款专为自主多智能体AI应用而设计的强大新型开源大型语言模型。此次发布标志着英伟达在美国领先开源AI领域更广泛战略中的一个重要里程碑,据报道,该公司已投入260亿美元用于开放模型AI的开发。

1200亿参数的强大引擎

Nemotron 3 Super是一个拥有1200亿参数的模型,得益于其混合专家混合(MoE)架构,在推理过程中仅激活120亿参数。该设计结合了Mamba-2状态空间层和Transformer注意力层,使模型能够以卓越的内存和计算效率处理长上下文任务。其吞吐量是前代Nemotron Super的5倍以上,并且声称准确率比上一代提高了2倍。

解决智能体AI的两大核心问题

英伟达构建Nemotron 3 Super旨在直接解决多智能体AI系统中两个持续存在的瓶颈。第一个是“上下文爆炸”——当智能体在每次交互中重新发送工具输出、推理步骤和对话历史时,会发生指数级的token增长。为了应对这一问题,Nemotron 3 Super拥有一个原生的100万token上下文窗口,使智能体能够在扩展任务中保持完整的流程意识,而不会偏离其原始目标。

第二个是“思考成本”——在复杂工作流程中为每个子任务部署大型推理模型所产生的巨额成本。该模型的混合MoE架构和三项核心创新直接解决了这一问题:潜在专家混合(Latent MoE)(以相同的计算成本激活四倍的专家),多token预测(Multi-Token Prediction)(每次前向传播预测多个token,显著缩短生成时间),以及原生的NVFP4精度训练(与Hopper上的FP8相比,在NVIDIA Blackwell GPU上推理速度可提高4倍)。

完全开源且面向企业

与许多高性能模型不同,Nemotron 3 Super以完全开放的权重、数据集和训练配方发布,并采用宽松的许可协议。英伟达正在发布超过10万亿个经过精心策划的预训练token、4000万个后训练样本以及21种配置的强化学习环境。开发者可以在Hugging Face、build.nvidia.com、OpenRouter和Perplexity上访问该模型,并通过NVIDIA NIM微服务进行部署。

企业可以通过Google Cloud Vertex AI和Oracle Cloud Infrastructure获得企业级访问权限,Amazon Bedrock和Microsoft Azure的部署即将推出。

行业采用和基准性能

领先的AI原生公司已经集成了该模型。Perplexity在其Computer产品中将Nemotron 3 Super作为20个编排模型之一提供。软件开发智能体公司CodeRabbit、Factory和Greptile正在部署它以提高准确性并降低计算成本。Palantir、Cadence、Siemens和Amdocs等企业巨头也已承诺进行集成。

在竞争性基准测试方面,Nemotron 3 Super在效率和开放性方面已在Artificial Analysis上占据首位。由Nemotron 3 Super驱动的英伟达AI-Q研究智能体在DeepResearch Bench和DeepResearch Bench II上均排名第一。该模型在PinchBench上得分85.6%,优于Anthropic的Claude Opus 4.5、Kimi 2.5和GPT-OSS 120B。在吞吐量比较中,它比OpenAI的GPT-OSS 120B快2.2倍,比阿里巴巴的Qwen3.5-122B快7.5倍。

更大的图景:开放AI作为国家战略

英伟达首席执行官黄仁勋强调了开放创新的战略重要性,表示公司旨在将先进AI转化为一个开放平台,为开发者提供构建大规模智能体系统所需的透明度和效率。分析人士指出,Nemotron 3的发布也是一项地缘政治举措——鉴于中国的Qwen和Kimi模型在开源领域占据主导地位,Nemotron为美国提供了一个具有竞争力的、完全透明的替代方案。

Nemotron 3 Super位于Nemotron 3系列的中端,位于此前发布的300亿参数的Nemotron 3 Nano(于2025年12月推出)之上,以及预计的5000亿参数的Nemotron 3 Ultra(发布日期尚未公布)之下。