Nemotron 3 Super de NVIDIA redéfinit les règles de l'IA agentique open-source

March 13, 2026
NVIDIA
4 min

Résumé des actualités

Le mercredi 11 mars 2026 (heure de l'Est), NVIDIA a officiellement dévoilé Nemotron 3 Super, un nouveau grand modèle linguistique open-source puissant spécialement conçu pour les applications d'IA autonomes et multi-agents. Cette sortie marque une étape importante dans la stratégie plus large de NVIDIA visant à diriger le paysage de l'IA open-source aux États-Unis, soutenue par un investissement rapporté de 26 milliards de dollars dans le développement de modèles d'IA ouverts.

Une centrale de 120 milliards de paramètres

Nemotron 3 Super est un modèle de 120 milliards de paramètres qui fonctionne avec seulement 12 milliards de paramètres actifs lors de l'inférence, grâce à son architecture hybride Mixture-of-Experts (MoE). La conception combine des couches d'espace d'état Mamba-2 avec des couches d'attention Transformer, permettant au modèle de gérer des tâches à long contexte avec une mémoire et une efficacité de calcul remarquables. Il offre un débit plus de 5 fois supérieur à celui de son prédécesseur, Nemotron Super, et revendique une précision 2 fois supérieure à celle de la génération précédente.

Résoudre les deux problèmes principaux de l'IA agentique

NVIDIA a construit Nemotron 3 Super pour s'attaquer directement à deux goulots d'étranglement persistants dans les systèmes d'IA multi-agents. Le premier est "l'explosion de contexte" — la croissance exponentielle des jetons qui se produit lorsque les agents renvoient les sorties d'outils, les étapes de raisonnement et les historiques de conversation à chaque tour. Pour contrer cela, Nemotron 3 Super dispose d'une fenêtre de contexte native de 1 million de jetons, permettant aux agents de maintenir une conscience complète du flux de travail sur des tâches étendues sans perdre l'alignement avec leurs objectifs d'origine.

Le second est la "taxe de réflexion" — le coût prohibitif du déploiement de grands modèles de raisonnement pour chaque sous-tâche dans des flux de travail complexes. L'architecture MoE hybride du modèle et trois innovations clés s'attaquent à ce problème de front : Latent MoE (qui active quatre fois plus de spécialistes experts au même coût de calcul), Multi-Token Prediction (qui prédit plusieurs jetons par passe avant, réduisant considérablement le temps de génération) et l'entraînement natif en précision NVFP4 (permettant une inférence jusqu'à 4 fois plus rapide sur les GPU NVIDIA Blackwell par rapport au FP8 sur Hopper).

Entièrement ouvert et prêt pour l'entreprise

Contrairement à de nombreux modèles haute performance, Nemotron 3 Super est publié avec des poids, des ensembles de données et des recettes d'entraînement entièrement ouverts sous une licence permissive. NVIDIA publie plus de 10 billions de jetons de pré-entraînement sélectionnés, 40 millions d'échantillons post-entraînement et des environnements d'apprentissage par renforcement dans 21 configurations. Les développeurs peuvent accéder au modèle sur Hugging Face, build.nvidia.com, OpenRouter et Perplexity, et le déployer via les microservices NVIDIA NIM.

L'accès aux entreprises est disponible via Google Cloud Vertex AI et Oracle Cloud Infrastructure, avec des déploiements Amazon Bedrock et Microsoft Azure à venir.

Adoption par l'industrie et performances de référence

Les principales entreprises natives de l'IA ont déjà intégré le modèle. Perplexity propose Nemotron 3 Super comme l'un des 20 modèles orchestrés dans son produit Computer. Les sociétés d'agents de développement logiciel CodeRabbit, Factory et Greptile le déploient pour améliorer la précision tout en réduisant les coûts de calcul. Des poids lourds de l'entreprise, notamment Palantir, Cadence, Siemens et Amdocs, se sont également engagés à l'intégrer.

Sur le front des benchmarks concurrentiels, Nemotron 3 Super s'est classé premier sur Artificial Analysis pour l'efficacité et l'ouverture. L'agent de recherche AI-Q de NVIDIA, alimenté par Nemotron 3 Super, a atteint la première place sur DeepResearch Bench et DeepResearch Bench II. Le modèle a obtenu 85,6 % sur PinchBench, surpassant Claude Opus 4.5 d'Anthropic, Kimi 2.5 et GPT-OSS 120B. En comparaison de débit, il est 2,2 fois plus rapide que GPT-OSS 120B d'OpenAI et 7,5 fois plus rapide que Qwen3.5-122B d'Alibaba.

La vue d'ensemble : l'IA ouverte comme stratégie nationale

Le PDG de NVIDIA, Jensen Huang, a souligné l'importance stratégique de l'innovation ouverte, déclarant que l'entreprise vise à transformer l'IA avancée en une plateforme ouverte qui offre aux développeurs la transparence et l'efficacité nécessaires pour construire des systèmes agentiques à grande échelle. Les analystes notent que la sortie de Nemotron 3 est également un jeu géopolitique — alors que les modèles Qwen et Kimi de la Chine ont dominé l'espace open-source, Nemotron positionne les États-Unis avec une alternative compétitive et entièrement transparente.

Nemotron 3 Super se situe au milieu de la famille Nemotron 3, au-dessus du Nemotron 3 Nano précédemment publié (30 milliards de paramètres, lancé en décembre 2025) et en dessous du Nemotron 3 Ultra attendu (500 milliards de paramètres), dont la date de sortie n'a pas encore été annoncée.