نفيديا تكشف عن فيرا روبين: منصة حوسبة ذكاء اصطناعي ثورية بست شرائح تظهر لأول مرة في معرض CES 2026

January 07, 2026
نفيديا
5 min

ملخص الأخبار

أطلقت NVIDIA رسميًا منصة الحوسبة الثورية للذكاء الاصطناعي Vera Rubin في معرض الإلكترونيات الاستهلاكية (CES) 2026، مما يمثل اختراقًا كبيرًا في البنية التحتية للذكاء الاصطناعي. يقدم الإعلان، الذي تم خلال الكلمة الرئيسية للمدير التنفيذي جنسن هوانغ يوم الاثنين 6 يناير 2026 (بتوقيت المحيط الهادئ)، بنية حاسوب فائق للذكاء الاصطناعي من الجيل التالي تعد بتحويل مشهد قدرات تدريب واستدلال الذكاء الاصطناعي.

بنية ستة شرائح ثورية تعد بزيادة أداء 5 أضعاف وخفض تكلفة 10 أضعاف

في معرض الإلكترونيات الاستهلاكية 2026 في لاس فيغاس، كشف المدير التنفيذي لشركة NVIDIA جنسن هوانغ عن منصة الحوسبة الأكثر طموحًا للذكاء الاصطناعي للشركة حتى الآن: Vera Rubin. سمي هذا النظام الرائد على اسم عالمة الفلك الأمريكية الرائدة، ويمثل أول نهج "تصميم مشترك متطرف" لشركة NVIDIA، حيث يدمج ست شرائح متخصصة لإنشاء ما تسميه الشركة "حاسوب فائق واحد مذهل للذكاء الاصطناعي".

نظرة عامة على المنصة والمواصفات الفنية

تتكون منصة Vera Rubin من ستة مكونات مصممة بدقة تعمل بتناغم تام:

المكونات الأساسية:

  • Vera CPU: معالج ARM مخصص بـ 88 نواة مع تقنية "التشغيل المتوازي المكاني"، يوفر أداء 176 خيطًا بشكل فعال
  • Rubin GPU: معالج ثنائي الشريحة مبني على عملية TSMC بدقة 3 نانومتر، ويحتوي على 336 مليار ترانزستور و 288 جيجابايت من ذاكرة HBM4
  • NVLink 6 Switch: تقنية اتصال متقدمة توفر نطاق ترددي يبلغ 28.8 تيرابايت/ثانية
  • ConnectX-9 SuperNIC: واجهة شبكة عالية الأداء توفر نطاقًا تردديًا يبلغ 1.6 تيرابايت/ثانية
  • BlueField-4 DPU: وحدة معالجة البيانات لتفريغ الأمان والتخزين المحسن
  • Spectrum-6 Ethernet Switch: تقنية فوتونيات سيليكون ثورية لشبكات مراكز البيانات

اختراقات الأداء

يقدم نظام Vera Rubin NVL72 على مستوى الرف مقاييس أداء غير مسبوقة تضع معايير صناعية جديدة. يحقق كل Rubin GPU أداء استدلال يبلغ 50 PFLOPS باستخدام تنسيق الدقة NVFP4 من NVIDIA - مما يمثل تحسنًا بمقدار 5 أضعاف مقارنة ببنية Blackwell السابقة. بالنسبة لأعباء العمل التدريبية، يوفر النظام 35 PFLOPS، مما يمثل زيادة في الأداء بمقدار 3.5 أضعاف.

والأكثر إثارة للإعجاب ربما هو أن NVIDIA تدعي أن المنصة تقلل تكاليف استدلال نماذج خليط الخبراء (MoE) بما يصل إلى 10 أضعاف مع الحاجة إلى ربع عدد وحدات معالجة الرسومات للتدريب مقارنة بأنظمة Blackwell. هذا التحسن الكبير في الكفاءة يضع المنصة لتسريع تبني الذكاء الاصطناعي السائد بشكل كبير.

ابتكار الذاكرة والتخزين

تقدم المنصة العديد من ابتكارات الذاكرة الحاسمة لأعباء عمل الذكاء الاصطناعي من الجيل التالي. يشتمل كل Rubin GPU على ثماني حزم من ذاكرة HBM4، مما يوفر سعة 288 جيجابايت مع نطاق ترددي مذهل للذاكرة يبلغ 22 تيرابايت/ثانية - مما يمثل تحسنًا بمقدار 2.8 أضعاف مقارنة بتطبيق HBM3e الخاص بـ Blackwell.

كشفت NVIDIA أيضًا عن حل التخزين الأصلي للذكاء الاصطناعي الخاص بها، وهو منصة تخزين ذاكرة سياق الاستدلال. يعزز هذا المستوى المتخصص من ذاكرة التخزين المؤقت للمفاتيح والقيم (KV-cache) استدلال السياق الطويل مع إنتاجية رموز أعلى بـ 5 أضعاف، وأداء أفضل بـ 5 أضعاف لكل تكلفة إجمالية للملكية، وكفاءة طاقة محسنة بـ 5 أضعاف.

التأثير السوقي وتبني الصناعة

يحمل الإعلان آثارًا كبيرة على صناعة الذكاء الاصطناعي، حيث تقوم كبرى شركات الحوسبة السحابية بالفعل بوضع نفسها كأوائل المتبنين. التزمت Amazon Web Services و Google Cloud و Microsoft Azure و Oracle Cloud Infrastructure بنشر مثيلات تعتمد على Vera Rubin بدءًا من النصف الثاني من عام 2026.

تخطط Microsoft لدمج أنظمة NVIDIA Vera Rubin NVL72 على مستوى الرف في مواقع مصانعها الفائقة للذكاء الاصطناعي من الجيل التالي Fairwater، والتي ستتوسع إلى مئات الآلاف من شرائح NVIDIA Vera Rubin الفائقة. ستدمج CoreWeave أنظمة تعتمد على Rubin في منصة الحوسبة السحابية للذكاء الاصطناعي الخاصة بها، والتي تعمل من خلال واجهة Mission Control الخاصة بها لتعزيز المرونة والأداء.

الجدول الزمني للإنتاج والتوافر

أكدت NVIDIA أن جميع شرائح منصة Rubin الست قد عادت بنجاح من التصنيع وهي حاليًا في مرحلة الإنتاج الكامل. تتوقع الشركة زيادة حجم الإنتاج خلال النصف الثاني من عام 2026، مع تقديم الشركاء لخدمات تعتمد على Rubin في نفس الإطار الزمني.

يمثل جاهزية الإنتاج معلمًا هامًا لشركة NVIDIA، التي حافظت على إيقاعها السنوي في تقديم أجهزة حاسوب فائقة للذكاء الاصطناعي من الجيل الجديد على الرغم من زيادة التعقيد ومتطلبات الأداء.

آثار المشهد التنافسي

يأتي إعلان Vera Rubin وسط منافسة متزايدة في سوق البنية التحتية للذكاء الاصطناعي. تطلق Advanced Micro Devices أنظمة Helios على مستوى الرف للتنافس مباشرة مع عروض NVIDIA، بينما تواصل كبرى شركات الحوسبة السحابية بما في ذلك Google و Amazon تطوير معالجات خاصة بها.

على الرغم من هذه الضغوط التنافسية، فإن نهج المنصة الشامل لشركة NVIDIA - الذي يعامل مركز البيانات بأكمله كوحدة حوسبة بدلاً من المكونات الفردية - يضع الشركة في وضع فريد في السوق. تضمن فلسفة التصميم المشترك المتطرف الأداء الأمثل عبر جميع مكونات النظام بدلاً من التحسين المعزول.

التطبيقات وحالات الاستخدام المستقبلية

تستهدف المنصة بشكل خاص تطبيقات الذكاء الاصطناعي الناشئة بما في ذلك الذكاء الاصطناعي الوكيل، ونماذج الاستدلال المتقدمة، وهياكل خليط الخبراء المعقدة. تمثل هذه التطبيقات الحدود التالية للذكاء الاصطناعي، متجاوزة روبوتات الدردشة البسيطة إلى أنظمة استدلال معقدة قادرة على حل المشكلات متعددة الخطوات.

تضع NVIDIA منصة Vera Rubin كبنية تحتية أساسية للانتقال من الاستدلال التقليدي إلى ما يصفه المدير التنفيذي جنسن هوانغ بـ "عمليات التفكير" - أنظمة الذكاء الاصطناعي التي تتداول وتستدل من خلال استعلامات معقدة بدلاً من تقديم استجابات فورية.

نظام بيئي تكنولوجي أوسع

رافق إعلان Vera Rubin العديد من الكشوفات التكنولوجية التكميلية، بما في ذلك عائلة نماذج الاستدلال المفتوحة Alpamayo لتطوير المركبات ذاتية القيادة وشراكات معززة مع قائد الأتمتة الصناعية Siemens.

تعزز هذه الإعلانات استراتيجية NVIDIA في إنشاء أنظمة بيئية شاملة بدلاً من المنتجات المستقلة، مما يضع الشركة كمزود للبنية التحتية الأساسية للجيل القادم من تطبيقات الذكاء الاصطناعي عبر صناعات متعددة.

تمثل منصة Vera Rubin أكثر من مجرد ترقية للأجهزة - فهي تجسد رؤية NVIDIA للبنية التحتية للذكاء الاصطناعي القادرة على دعم متطلبات النطاق والتعقيد الهائلة لأنظمة الذكاء الاصطناعي المستقبلية. مع انتقال الذكاء الاصطناعي من التكنولوجيا التجريبية إلى النشر على نطاق صناعي، قد تثبت منصات مثل Vera Rubin أنها ضرورية لتحقيق الإمكانات الكاملة للذكاء الاصطناعي عبر المجتمع والاقتصاد العالمي.