NVIDIAs Nemotron 3 Super schreibt die Regeln der Open-Source-Agenten-KI neu

March 13, 2026
NVIDIA
4 min

Zusammenfassung der Nachrichten

Am Mittwoch, dem 11. März 2026 (Eastern Time), stellte NVIDIA offiziell Nemotron 3 Super vor, ein leistungsstarkes neues Open-Source-Sprachmodell, das speziell für autonome KI-Anwendungen mit mehreren Agenten entwickelt wurde. Die Veröffentlichung markiert einen bedeutenden Meilenstein in NVIDIAs breiterer Strategie, die Open-Source-KI-Landschaft in den Vereinigten Staaten anzuführen, unterstützt durch eine gemeldete Investition von 26 Milliarden US-Dollar in die Entwicklung von Open-Model-KI.

Ein Kraftpaket mit 120 Milliarden Parametern

Nemotron 3 Super ist ein Modell mit 120 Milliarden Parametern, das dank seiner hybriden Mixture-of-Experts (MoE)-Architektur während der Inferenz nur mit 12 Milliarden aktiven Parametern arbeitet. Das Design kombiniert Mamba-2 State-Space-Schichten mit Transformer-Aufmerksamkeits-Schichten, was dem Modell ermöglicht, Aufgaben mit langem Kontext mit bemerkenswerter Speicher- und Recheneffizienz zu bewältigen. Es liefert mehr als 5-mal den Durchsatz seines Vorgängers, Nemotron Super, und beansprucht eine 2-mal höhere Genauigkeit im Vergleich zur vorherigen Generation.

Lösung der beiden Kernprobleme von Agentic AI

NVIDIA hat Nemotron 3 Super entwickelt, um zwei anhaltende Engpässe in Multi-Agenten-KI-Systemen direkt zu adressieren. Das erste ist die "Kontextexplosion" – das exponentielle Token-Wachstum, das auftritt, wenn Agenten Tool-Ausgaben, Denkprozesse und Gesprächsverläufe bei jeder Runde erneut senden. Um dem entgegenzuwirken, verfügt Nemotron 3 Super über ein natives Kontextfenster von 1 Million Tokens, das es Agenten ermöglicht, das vollständige Workflow-Bewusstsein über längere Aufgaben hinweg aufrechtzuerhalten, ohne die Ausrichtung auf ihre ursprünglichen Ziele zu verlieren.

Das zweite ist die "Denksteuer" – die prohibitiven Kosten für den Einsatz großer Denkmodelle für jede Teilaufgabe in komplexen Workflows. Die hybride MoE-Architektur des Modells und drei Kerninnovationen gehen dies direkt an: Latent MoE (das viermal so viele Experten-Spezialisten bei gleichen Rechenkosten aktiviert), Multi-Token-Vorhersage (die mehrere Tokens pro Forward-Pass vorhersagt und die Generierungszeit erheblich verkürzt) und natives NVFP4-Präzisionstraining (das bis zu 4-mal schnellere Inferenz auf NVIDIA Blackwell GPUs im Vergleich zu FP8 auf Hopper ermöglicht).

Vollständig offen und unternehmensbereit

Im Gegensatz zu vielen Hochleistungsmodellen wird Nemotron 3 Super mit vollständig offenen Gewichten, Datensätzen und Trainingsrezepten unter einer permissiven Lizenz veröffentlicht. NVIDIA veröffentlicht über 10 Billionen kuratierte Vortrainings-Tokens, 40 Millionen Nachtrainings-Samples und Reinforcement-Learning-Umgebungen in 21 Konfigurationen. Entwickler können auf das Modell auf Hugging Face, build.nvidia.com, OpenRouter und Perplexity zugreifen und es über NVIDIA NIM Microservices bereitstellen.

Der Unternehmenseinstieg ist über Google Cloud Vertex AI und Oracle Cloud Infrastructure verfügbar, Amazon Bedrock und Microsoft Azure Deployments folgen in Kürze.

Branchenakzeptanz und Benchmark-Leistung

Führende KI-native Unternehmen haben das Modell bereits integriert. Perplexity bietet Nemotron 3 Super als eines von 20 orchestrierten Modellen in seinem Computer-Produkt an. Softwareentwicklungs-Agentenunternehmen wie CodeRabbit, Factory und Greptile setzen es ein, um die Genauigkeit zu verbessern und gleichzeitig die Rechenkosten zu senken. Branchenschwergewichte wie Palantir, Cadence, Siemens und Amdocs haben sich ebenfalls zur Integration verpflichtet.

Auf dem wettbewerbsorientierten Benchmark-Sektor hat Nemotron 3 Super die Spitzenposition bei Artificial Analysis für Effizienz und Offenheit eingenommen. NVIDIAs KI-Q-Forschungsagent, der von Nemotron 3 Super angetrieben wird, erreichte die Nr. 1 sowohl im DeepResearch Bench als auch im DeepResearch Bench II. Das Modell erzielte 85,6 % im PinchBench und übertraf damit Anthropic's Claude Opus 4.5, Kimi 2.5 und GPT-OSS 120B. In Durchsatzvergleichen ist es 2,2-mal schneller als OpenAI's GPT-OSS 120B und 7,5-mal schneller als Alibaba's Qwen3.5-122B.

Das Gesamtbild: Offene KI als nationale Strategie

NVIDIA CEO Jensen Huang betonte die strategische Bedeutung offener Innovationen und erklärte, dass das Unternehmen bestrebt sei, fortschrittliche KI in eine offene Plattform zu verwandeln, die Entwicklern die Transparenz und Effizienz bietet, die sie für den Aufbau von Agentic-Systemen in großem Maßstab benötigen. Analysten stellen fest, dass die Veröffentlichung von Nemotron 3 auch ein geopolitisches Spiel ist – da Chinas Qwen- und Kimi-Modelle den Open-Source-Bereich dominiert haben, positionieren sich die Vereinigten Staaten mit Nemotron als wettbewerbsfähige, vollständig transparente Alternative.

Nemotron 3 Super befindet sich in der Mitte der Nemotron 3-Familie, oberhalb des zuvor veröffentlichten Nemotron 3 Nano mit 30 Milliarden Parametern (eingeführt im Dezember 2025) und unter dem erwarteten Nemotron 3 Ultra mit 500 Milliarden Parametern, dessen Veröffentlichungsdatum noch nicht bekannt gegeben wurde.