Home
Login

DeepSpeed-MII: سهولة نشر وتشغيل نماذج الذكاء الاصطناعي الكبيرة باستخدام محرك تحسين DeepSpeed، لتحقيق زمن انتقال منخفض وإنتاجية عالية.

Apache-2.0Python 2.0kdeepspeedai Last Updated: 2025-03-26

DeepSpeed-MII (استنتاج نموذج DeepSpeed)

DeepSpeed-MII هي مكتبة مفتوحة المصدر لتطبيقات استنتاج النماذج واسعة النطاق، تم تطويرها بواسطة فريق DeepSpeed في Microsoft. تهدف إلى تمكين المستخدمين من نشر وتشغيل نماذج اللغة الكبيرة (LLM) ونماذج التعلم العميق الأخرى بتأخير وتكلفة منخفضين للغاية.

الميزات والمزايا الأساسية

  • استنتاج بزمن انتقال منخفض: تركز MII على تحسين أداء الاستنتاج، وتقليل زمن الوصول من خلال تقنيات متعددة، بما في ذلك:
    • التوازي النموذجي: تقسيم النموذج على وحدات معالجة الرسوميات (GPUs) متعددة، لتحقيق حساب متوازٍ وتسريع عملية الاستنتاج.
    • توازي الموتر: تقسيم الموتر على وحدات معالجة الرسوميات (GPUs) متعددة، لزيادة درجة التوازي.
    • توازي خط الأنابيب: تقسيم عملية الاستنتاج إلى مراحل متعددة، وتنفيذها بالتوازي على وحدات معالجة الرسوميات (GPUs) مختلفة، لزيادة الإنتاجية.
    • دمج العمليات: دمج عمليات متعددة في عملية واحدة، لتقليل النفقات العامة لإطلاق النواة (kernel launch).
    • التكميم: استخدام أنواع بيانات ذات دقة أقل (مثل INT8) لتمثيل معلمات النموذج وقيم التنشيط، مما يقلل من استخدام الذاكرة وكمية الحساب.
    • تحسينات الترجمة البرمجية: استخدام تقنيات تحسين المترجم لزيادة كفاءة تنفيذ التعليمات البرمجية.
  • نشر منخفض التكلفة: تهدف MII إلى تقليل تكلفة نشر النماذج الكبيرة، من خلال الطرق التالية:
    • ضغط النموذج: استخدام تقنيات مثل التكميم والتقليم لتقليل حجم النموذج، مما يقلل من متطلبات الذاكرة.
    • معالجة الدفعات الديناميكية: ضبط حجم الدفعة ديناميكيًا وفقًا للحمل الفعلي، مما يحسن استخدام وحدة معالجة الرسوميات (GPU).
    • الذاكرة المشتركة: مشاركة الذاكرة بين نماذج متعددة، مما يقلل من استخدام الذاكرة.
  • سهولة الاستخدام: توفر MII واجهات برمجة تطبيقات (APIs) بسيطة وسهلة الاستخدام، مما يتيح للمستخدمين نشر وتشغيل النماذج الكبيرة بسهولة، دون الحاجة إلى فهم متعمق للتفاصيل الأساسية.
  • دعم واسع النطاق للنماذج: تدعم MII مجموعة متنوعة من نماذج اللغة الكبيرة (LLM) الشائعة، بما في ذلك:
    • سلسلة GPT
    • سلسلة BERT
    • سلسلة T5
    • سلسلة Llama
  • خيارات نشر مرنة: تدعم MII مجموعة متنوعة من خيارات النشر، بما في ذلك:
    • النشر المحلي: نشر النموذج على جهاز واحد.
    • النشر الموزع: نشر النموذج على أجهزة متعددة.
    • النشر السحابي: نشر النموذج على منصة سحابية.
  • التكامل مع نظام DeepSpeed البيئي: تتكامل MII بسلاسة مع المكونات الأخرى في نظام DeepSpeed البيئي (مثل DeepSpeed Training)، مما يسهل على المستخدمين تدريب النماذج ونشرها.

الوظائف الرئيسية

  • نشر النموذج: نشر النماذج المدربة مسبقًا على خادم الاستنتاج.
  • خدمة الاستنتاج: توفير واجهات HTTP/gRPC، ليتم استدعاؤها من قبل العملاء لإجراء الاستنتاج.
  • إدارة النموذج: إدارة النماذج المنشورة، بما في ذلك التحميل والتفريغ والتحديث وما إلى ذلك.
  • مراقبة الأداء: مراقبة مؤشرات أداء خدمة الاستنتاج، مثل زمن الوصول والإنتاجية واستخدام وحدة معالجة الرسوميات (GPU) وما إلى ذلك.

سيناريوهات التطبيق

  • معالجة اللغة الطبيعية (NLP): توليد النصوص، وتصنيف النصوص، والترجمة الآلية، وأنظمة الأسئلة والأجوبة، وما إلى ذلك.
  • الرؤية الحاسوبية (CV): التعرف على الصور، واكتشاف الكائنات، وتوليد الصور، وما إلى ذلك.
  • أنظمة التوصية: التوصيات المخصصة، والتوصيات الإعلانية، وما إلى ذلك.
  • تطبيقات التعلم العميق الأخرى: أي تطبيق يعتمد على نماذج التعلم العميق، يمكنه التفكير في استخدام MII لتسريع الاستنتاج وتحسين التكلفة.

كيفية الاستخدام

  1. تثبيت MII: استخدم pip لتثبيت مكتبة MII.
  2. تحميل النموذج: استخدم واجهات برمجة تطبيقات (APIs) التي توفرها MII لتحميل النموذج المدرب مسبقًا.
  3. نشر النموذج: انشر النموذج على خادم الاستنتاج.
  4. استدعاء خدمة الاستنتاج: استخدم واجهات HTTP/gRPC لاستدعاء خدمة الاستنتاج لإجراء الاستنتاج.

ملخص

DeepSpeed-MII هي مكتبة قوية وسهلة الاستخدام لاستنتاج النماذج واسعة النطاق، يمكن أن تساعد المستخدمين على نشر وتشغيل النماذج الكبيرة بتأخير وتكلفة منخفضين للغاية. إنها مناسبة لمجموعة متنوعة من تطبيقات التعلم العميق، وخاصة السيناريوهات التي تتطلب أداءً عاليًا وتكلفة منخفضة.

جميع التفاصيل، يرجى الرجوع إلى الموقع الرسمي (https://github.com/deepspeedai/DeepSpeed-MII/blob/main/README.md)