Nemotron 3 Super de NVIDIA reescribe las reglas de la IA agéntica de código abierto
Resumen de Noticias
El miércoles 11 de marzo de 2026 (Hora del Este), NVIDIA presentó oficialmente Nemotron 3 Super, un potente nuevo modelo de lenguaje grande de código abierto diseñado específicamente para aplicaciones de IA autónomas y multiagente. El lanzamiento marca un hito importante en la estrategia más amplia de NVIDIA para liderar el panorama de la IA de código abierto en los Estados Unidos, respaldado por una inversión reportada de 26 mil millones de dólares en el desarrollo de IA de modelos abiertos.
Una Potencia de 120 Mil Millones de Parámetros
Nemotron 3 Super es un modelo de 120 mil millones de parámetros que opera con solo 12 mil millones de parámetros activos durante la inferencia, gracias a su arquitectura híbrida Mixture-of-Experts (MoE). El diseño combina capas de espacio de estado Mamba-2 con capas de atención Transformer, lo que permite al modelo manejar tareas de contexto largo con una notable eficiencia de memoria y computacional. Ofrece más de 5 veces el rendimiento de su predecesor, Nemotron Super, y afirma tener una precisión 2 veces mayor en comparación con la generación anterior.
Resolviendo los Dos Problemas Principales de la IA Agente
NVIDIA construyó Nemotron 3 Super para abordar directamente dos cuellos de botella persistentes en los sistemas de IA multiagente. El primero es la "explosión de contexto", el crecimiento exponencial de tokens que ocurre cuando los agentes reenvían salidas de herramientas, pasos de razonamiento e historiales de conversación en cada turno. Para contrarrestar esto, Nemotron 3 Super presenta una ventana de contexto nativa de 1 millón de tokens, lo que permite a los agentes mantener una conciencia completa del flujo de trabajo en tareas extendidas sin perder la alineación con sus objetivos originales.
El segundo es el "impuesto al pensamiento", el costo prohibitivo de implementar modelos de razonamiento grandes para cada subtarea en flujos de trabajo complejos. La arquitectura híbrida MoE del modelo y tres innovaciones principales abordan esto de frente: Latent MoE (que activa cuatro veces más especialistas expertos al mismo costo de cómputo), Multi-Token Prediction (que predice múltiples tokens por pasada hacia adelante, reduciendo significativamente el tiempo de generación) y entrenamiento nativo de precisión NVFP4 (que permite una inferencia hasta 4 veces más rápida en GPUs NVIDIA Blackwell en comparación con FP8 en Hopper).
Completamente Abierto y Listo para Empresas
A diferencia de muchos modelos de alto rendimiento, Nemotron 3 Super se lanza con pesos, conjuntos de datos y recetas de entrenamiento completamente abiertos bajo una licencia permisiva. NVIDIA está publicando más de 10 billones de tokens de preentrenamiento curados, 40 millones de muestras de postentrenamiento y entornos de aprendizaje por refuerzo en 21 configuraciones. Los desarrolladores pueden acceder al modelo en Hugging Face, build.nvidia.com, OpenRouter y Perplexity, y desplegarlo a través de microservicios NVIDIA NIM.
El acceso empresarial está disponible a través de Google Cloud Vertex AI y Oracle Cloud Infrastructure, y los despliegues en Amazon Bedrock y Microsoft Azure estarán disponibles próximamente.
Adopción de la Industria y Rendimiento de Referencia
Las principales empresas nativas de IA ya han integrado el modelo. Perplexity ofrece Nemotron 3 Super como uno de los 20 modelos orquestados en su producto Computer. Las empresas de agentes de desarrollo de software CodeRabbit, Factory y Greptile lo están implementando para mejorar la precisión y reducir los costos de cómputo. Gigantes empresariales como Palantir, Cadence, Siemens y Amdocs también se han comprometido a la integración.
En el frente de los benchmarks competitivos, Nemotron 3 Super ha reclamado la primera posición en Artificial Analysis por eficiencia y apertura. El agente de investigación AI-Q de NVIDIA, impulsado por Nemotron 3 Super, alcanzó el número 1 tanto en DeepResearch Bench como en DeepResearch Bench II. El modelo obtuvo un 85,6 % en PinchBench, superando a Claude Opus 4.5 de Anthropic, Kimi 2.5 y GPT-OSS 120B. En comparaciones de rendimiento, es 2,2 veces más rápido que GPT-OSS 120B de OpenAI y 7,5 veces más rápido que Qwen3.5-122B de Alibaba.
La Imagen General: IA Abierta como Estrategia Nacional
El CEO de NVIDIA, Jensen Huang, enfatizó la importancia estratégica de la innovación abierta, afirmando que la compañía tiene como objetivo transformar la IA avanzada en una plataforma abierta que brinde a los desarrolladores la transparencia y la eficiencia necesarias para construir sistemas agentes a escala. Los analistas señalan que el lanzamiento de Nemotron 3 es también una jugada geopolítica: dado que los modelos Qwen y Kimi de China han dominado el espacio de código abierto, Nemotron posiciona a los Estados Unidos con una alternativa competitiva y totalmente transparente.
Nemotron 3 Super se encuentra en el medio de la familia Nemotron 3, por encima del Nemotron 3 Nano de 30 mil millones de parámetros lanzado anteriormente (diciembre de 2025) y por debajo del anticipado Nemotron 3 Ultra de 500 mil millones de parámetros, cuya fecha de lanzamiento aún no se ha anunciado.