O Nemotron 3 Super da NVIDIA Reescreve as Regras da IA Agêntica de Código Aberto

March 13, 2026
NVIDIA
4 min

Resumo de Notícias

Na quarta-feira, 11 de março de 2026 (Horário do Leste), a NVIDIA apresentou oficialmente o Nemotron 3 Super, um poderoso novo modelo de linguagem grande de código aberto projetado especificamente para aplicações de IA autônomas e multiagentes. O lançamento marca um marco significativo na estratégia mais ampla da NVIDIA para liderar o cenário de IA de código aberto nos Estados Unidos, apoiado por um investimento relatado de US$ 26 bilhões em desenvolvimento de IA de modelo aberto.

Uma Potência de 120 Bilhões de Parâmetros

O Nemotron 3 Super é um modelo de 120 bilhões de parâmetros que opera com apenas 12 bilhões de parâmetros ativos durante a inferência, graças à sua arquitetura híbrida Mixture-of-Experts (MoE). O design combina camadas de espaço de estado Mamba-2 com camadas de atenção Transformer, permitindo que o modelo lide com tarefas de contexto longo com notável eficiência de memória e computacional. Ele oferece mais de 5 vezes o throughput de seu predecessor, Nemotron Super, e reivindica 2 vezes maior precisão em comparação com a geração anterior.

Resolvendo os Dois Problemas Principais da IA Agente

A NVIDIA construiu o Nemotron 3 Super para abordar diretamente dois gargalos persistentes em sistemas de IA multiagentes. O primeiro é a "explosão de contexto" — o crescimento exponencial de tokens que ocorre quando os agentes reenviaram saídas de ferramentas, etapas de raciocínio e históricos de conversação a cada turno. Para combater isso, o Nemotron 3 Super apresenta uma janela de contexto nativa de 1 milhão de tokens, permitindo que os agentes mantenham a consciência completa do fluxo de trabalho em tarefas estendidas sem perder o alinhamento com seus objetivos originais.

O segundo é o "imposto de pensamento" — o custo proibitivo de implantar grandes modelos de raciocínio para cada subtarefa em fluxos de trabalho complexos. A arquitetura híbrida MoE do modelo e três inovações principais abordam isso diretamente: Latent MoE (que ativa quatro vezes mais especialistas com o mesmo custo de computação), Multi-Token Prediction (que prevê vários tokens por passagem direta, reduzindo significativamente o tempo de geração) e treinamento nativo de precisão NVFP4 (permitindo inferência até 4 vezes mais rápida em GPUs NVIDIA Blackwell em comparação com FP8 em Hopper).

Totalmente Aberto e Pronto para Empresas

Ao contrário de muitos modelos de alto desempenho, o Nemotron 3 Super é lançado com pesos, conjuntos de dados e receitas de treinamento totalmente abertos sob uma licença permissiva. A NVIDIA está publicando mais de 10 trilhões de tokens de pré-treinamento curados, 40 milhões de amostras de pós-treinamento e ambientes de aprendizado por reforço em 21 configurações. Os desenvolvedores podem acessar o modelo no Hugging Face, build.nvidia.com, OpenRouter e Perplexity, e implantá-lo por meio de microsserviços NVIDIA NIM.

O acesso empresarial está disponível por meio do Google Cloud Vertex AI e Oracle Cloud Infrastructure, com implantações do Amazon Bedrock e Microsoft Azure em breve.

Adoção da Indústria e Desempenho de Benchmark

Empresas líderes nativas de IA já integraram o modelo. A Perplexity oferece o Nemotron 3 Super como um dos 20 modelos orquestrados em seu produto Computer. As empresas de agentes de desenvolvimento de software CodeRabbit, Factory e Greptile o estão implantando para melhorar a precisão enquanto reduzem os custos de computação. Gigantes empresariais, incluindo Palantir, Cadence, Siemens e Amdocs, também se comprometeram com a integração.

Na frente de benchmarks competitivos, o Nemotron 3 Super conquistou a primeira posição na Análise Artificial por eficiência e abertura. O agente de pesquisa AI-Q da NVIDIA, alimentado pelo Nemotron 3 Super, alcançou o 1º lugar tanto no DeepResearch Bench quanto no DeepResearch Bench II. O modelo marcou 85,6% no PinchBench, superando o Claude Opus 4.5 da Anthropic, o Kimi 2.5 e o GPT-OSS 120B. Em comparações de throughput, ele é 2,2 vezes mais rápido que o GPT-OSS 120B da OpenAI e 7,5 vezes mais rápido que o Qwen3.5-122B da Alibaba.

O Quadro Geral: IA Aberta como Estratégia Nacional

O CEO da NVIDIA, Jensen Huang, enfatizou a importância estratégica da inovação aberta, afirmando que a empresa visa transformar a IA avançada em uma plataforma aberta que oferece aos desenvolvedores a transparência e a eficiência necessárias para construir sistemas agentes em escala. Analistas observam que o lançamento do Nemotron 3 também é um movimento geopolítico — como os modelos Qwen e Kimi da China dominaram o espaço de código aberto, o Nemotron posiciona os Estados Unidos com uma alternativa competitiva e totalmente transparente.

O Nemotron 3 Super está no meio da família Nemotron 3, posicionando-se acima do Nemotron 3 Nano de 30 bilhões de parâmetros lançado anteriormente (lançado em dezembro de 2025) e abaixo do aguardado Nemotron 3 Ultra de 500 bilhões de parâmetros, cuja data de lançamento ainda não foi anunciada.