نيموترون 3 سوبر من إنفيديا يعيد كتابة قواعد الذكاء الاصطناعي الوكيل مفتوح المصدر

March 13, 2026
إنفيديا
4 min

ملخص الأخبار

في يوم الأربعاء الموافق 11 مارس 2026 (التوقيت الشرقي)، كشفت NVIDIA رسميًا عن Nemotron 3 Super، وهو نموذج لغوي كبير قوي جديد مفتوح المصدر مصمم خصيصًا لتطبيقات الذكاء الاصطناعي المستقلة والمتعددة الوكلاء. يمثل هذا الإصدار علامة فارقة مهمة في استراتيجية NVIDIA الأوسع لقيادة مشهد الذكاء الاصطناعي مفتوح المصدر في الولايات المتحدة، مدعومًا باستثمار يُقدر بـ 26 مليار دولار في تطوير النماذج المفتوحة للذكاء الاصطناعي.

قوة بقدرة 120 مليار معامل

Nemotron 3 Super هو نموذج بقدرة 120 مليار معامل يعمل بـ 12 مليار معامل نشط فقط أثناء الاستدلال، وذلك بفضل بنيته الهجينة "مزيج الخبراء" (MoE). يجمع التصميم بين طبقات مساحة الحالة Mamba-2 وطبقات الانتباه Transformer، مما يمكّن النموذج من التعامل مع المهام ذات السياق الطويل بكفاءة ذاكرة وحسابية ملحوظة. يوفر إنتاجية تزيد عن 5 أضعاف سلفه، Nemotron Super، ويدعي دقة أعلى بمرتين مقارنة بالجيل السابق.

حل مشكلتين أساسيتين في الذكاء الاصطناعي الوكيل

قامت NVIDIA ببناء Nemotron 3 Super لمعالجة اثنين من الاختناقات المستمرة في أنظمة الذكاء الاصطناعي متعددة الوكلاء بشكل مباشر. الأول هو "انفجار السياق" - النمو الأسي للرموز الذي يحدث عندما يعيد الوكلاء إرسال مخرجات الأدوات وخطوات التفكير وسجلات المحادثة مع كل دور. لمواجهة ذلك، يتميز Nemotron 3 Super بنافذة سياق أصلية تبلغ مليون رمز، مما يسمح للوكلاء بالحفاظ على الوعي الكامل بسير العمل عبر المهام الممتدة دون فقدان التوافق مع أهدافهم الأصلية.

الثاني هو "ضريبة التفكير" - التكلفة الباهظة لنشر نماذج الاستدلال الكبيرة لكل مهمة فرعية في سير العمل المعقد. تعالج بنية MoE الهجينة للنموذج وثلاثة ابتكارات أساسية هذه المشكلة بشكل مباشر: Latent MoE (الذي ينشط أربعة أضعاف عدد الخبراء المتخصصين بنفس تكلفة الحوسبة)، Multi-Token Prediction (الذي يتنبأ برموز متعددة لكل تمريرة أمامية، مما يقلل وقت الإنشاء بشكل كبير)، والتدريب بدقة NVFP4 الأصلية (مما يتيح استدلالًا أسرع بما يصل إلى 4 مرات على وحدات معالجة الرسومات NVIDIA Blackwell مقارنة بـ FP8 على Hopper).

مفتوح بالكامل وجاهز للمؤسسات

على عكس العديد من النماذج عالية الأداء، تم إصدار Nemotron 3 Super بأوزان ومجموعات بيانات ووصفات تدريب مفتوحة بالكامل بموجب ترخيص متساهل. تنشر NVIDIA أكثر من 10 تريليون رمز مُنسق للتدريب المسبق، و 40 مليون عينة بعد التدريب، وبيئات التعلم المعزز عبر 21 تكوينًا. يمكن للمطورين الوصول إلى النموذج على Hugging Face و build.nvidia.com و OpenRouter و Perplexity، ونشره عبر خدمات NVIDIA NIM المصغرة.

يتوفر الوصول للمؤسسات من خلال Google Cloud Vertex AI و Oracle Cloud Infrastructure، مع عمليات نشر Amazon Bedrock و Microsoft Azure قريبًا.

تبني الصناعة وأداء المعايير

قامت شركات رائدة في مجال الذكاء الاصطناعي بدمج النموذج بالفعل. تقدم Perplexity نموذج Nemotron 3 Super كواحد من 20 نموذجًا مُنسقًا في منتجها Computer. تقوم شركات وكلاء تطوير البرمجيات CodeRabbit و Factory و Greptile بنشره لتحسين الدقة مع تقليل تكاليف الحوسبة. كما التزمت الشركات الكبرى مثل Palantir و Cadence و Siemens و Amdocs بالدمج.

على جبهة المعايير التنافسية، احتل Nemotron 3 Super المركز الأول في Artificial Analysis للكفاءة والانفتاح. وصل وكيل البحث AI-Q من NVIDIA، المدعوم بـ Nemotron 3 Super، إلى المركز الأول في كل من DeepResearch Bench و DeepResearch Bench II. سجل النموذج 85.6٪ في PinchBench، متفوقًا على Claude Opus 4.5 من Anthropic و Kimi 2.5 و GPT-OSS 120B. في مقارنات الإنتاجية، فهو أسرع بـ 2.2 مرة من GPT-OSS 120B من OpenAI و 7.5 مرة أسرع من Qwen3.5-122B من Alibaba.

الصورة الأكبر: الذكاء الاصطناعي المفتوح كاستراتيجية وطنية

أكد الرئيس التنفيذي لشركة NVIDIA، جنسن هوانغ، على الأهمية الاستراتيجية للابتكار المفتوح، مشيرًا إلى أن الشركة تهدف إلى تحويل الذكاء الاصطناعي المتقدم إلى منصة مفتوحة تمنح المطورين الشفافية والكفاءة اللازمة لبناء أنظمة وكيلة على نطاق واسع. يشير المحللون إلى أن إصدار Nemotron 3 هو أيضًا خطوة جيوسياسية - حيث هيمنت نماذج Qwen و Kimi الصينية على مساحة المصادر المفتوحة، يضع Nemotron الولايات المتحدة كبديل تنافسي وشفاف بالكامل.

يقع Nemotron 3 Super في منتصف عائلة Nemotron 3، حيث يقع فوق Nemotron 3 Nano الذي تم إصداره سابقًا بقدرة 30 مليار معامل (تم إطلاقه في ديسمبر 2025) وأقل من Nemotron 3 Ultra المتوقع بقدرة 500 مليار معامل، والذي لم يتم الإعلان عن تاريخ إصداره بعد.