Home
Login

المرحلة الرابعة: التعلم العميق والشبكات العصبية

دورة مجانية للنماذج اللغوية الكبيرة ومعالجة اللغة الطبيعية مقدمة من Hugging Face، تغطي مجموعة كاملة من التقنيات مثل Transformers ومعالجة البيانات وضبط النماذج.

LLMNLPTransformersWebSiteTextFreeMulti-Language

مقدمة تفصيلية لدورة Hugging Face LLM

نظرة عامة على الدورة

هذه دورة تدريبية في نماذج اللغة الكبيرة (LLM) ومعالجة اللغة الطبيعية (NLP) مقدمة من Hugging Face، وتركز على التعلم والممارسة باستخدام مكتبات نظام Hugging Face البيئي.

مميزات الدورة

  • مجانية بالكامل: لا إعلانات، لا محتوى مدفوع
  • عملية المنحى: تجمع بين النظرية والتطبيق، وتوفر أمثلة برمجية
  • روح المصدر المفتوح: جميع المحتويات منشورة تحت ترخيص Apache 2
  • دعم متعدد اللغات: تدعم ترجمات بعدة لغات
  • مدفوعة بالمجتمع: دعم ومناقشات مجتمعية نشطة

هيكل الدورة

الفصول 1-4: أساسيات مكتبة 🤗 Transformers

  • مبادئ عمل نماذج Transformer
  • كيفية استخدام النماذج من Hugging Face Hub
  • تقنيات الضبط الدقيق للنماذج
  • مشاركة النتائج على Hub

الفصول 5-8: معالجة البيانات ومهام معالجة اللغة الطبيعية الكلاسيكية

  • أساسيات 🤗 Datasets و 🤗 Tokenizers
  • معالجة مهام معالجة اللغة الطبيعية الكلاسيكية
  • تعمق في تقنيات LLM
  • حلول للتحديات الشائعة في معالجة اللغة

الفصل 9: نشر النماذج وعرضها

  • بناء ومشاركة عروض النماذج التوضيحية
  • عرض التطبيقات على 🤗 Hub
  • تقنيات تصور النماذج

الفصول 10-12: مواضيع LLM المتقدمة

  • تقنيات الضبط الدقيق المتقدمة
  • تنظيم مجموعات بيانات عالية الجودة
  • بناء نماذج الاستدلال
  • أحدث التطورات في LLM

حزمة التقنيات الأساسية

المكتبات الرئيسية

  • 🤗 Transformers: مكتبة النماذج الأساسية
  • 🤗 Datasets: مكتبة معالجة البيانات
  • 🤗 Tokenizers: مكتبة أدوات الترميز (Tokenizers)
  • 🤗 Accelerate: مكتبة تسريع التدريب
  • Hugging Face Hub: مركز النماذج ومجموعات البيانات

الأطر المدعومة

  • PyTorch
  • TensorFlow
  • JAX

إعداد بيئة التعلم

الطريقة 1: جوجل كولاب (Google Colab)

# تثبيت الإصدار الأساسي
!pip install transformers

# تثبيت الإصدار الكامل (موصى به)
!pip install transformers[sentencepiece]

الطريقة 2: بيئة بايثون الافتراضية

# إنشاء دليل المشروع
mkdir ~/transformers-course
cd ~/transformers-course

# إنشاء بيئة افتراضية
python -m venv .env

# تفعيل البيئة الافتراضية
source .env/bin/activate

# تثبيت التبعيات
pip install "transformers[sentencepiece]"

متطلبات الدورة

المتطلبات التقنية

  • أساسيات بايثون: معرفة جيدة ببرمجة بايثون مطلوبة
  • أساسيات التعلم العميق: يوصى بإكمال دورة تمهيدية في التعلم العميق أولاً
  • معرفة الأطر: لا يشترط خبرة في PyTorch أو TensorFlow، ولكن وجود بعض المعرفة سيكون مفيدًا

الدورات التمهيدية الموصى بها

فريق مؤلفي الدورة

المؤلفون الأساسيون

  • أبوبكر عابد: مؤسس Gradio، دكتوراه من ستانفورد
  • بن بيرتنشو: دكتوراه في معالجة اللغة الطبيعية، بحث في توليد قصص الأطفال
  • ماثيو كاريغان: باحث ما بعد الدكتوراه في كلية ترينيتي دبلن
  • ليسندر ديبوت: مطور أساسي في 🤗 Transformers
  • سيلفان غوغيه: مؤلف مشارك لكتاب "Deep Learning for Coders"
  • لويس تانستال: مؤلف مشارك لكتاب "Natural Language Processing with Transformers"
  • لياندرو فون فيرا: مؤلف مشارك لكتاب "Natural Language Processing with Transformers"

الجدول الزمني للدراسة

  • مدة كل فصل: أسبوع واحد
  • وقت الدراسة الأسبوعي: 6-8 ساعات
  • التقدم العام: يمكن تعديله حسب الوتيرة الشخصية

الموارد والدعم

مصادر التعلم

  • دفاتر الملاحظات التفاعلية: جوجل كولاب (Google Colab) و أمازون سيج ميكر ستوديو لاب (Amazon SageMaker Studio Lab)
  • مستودع الشفرة: huggingface/notebooks
  • منتدى الدورة: Hugging Face forums

دعم متعدد اللغات

توفر الدورة إصدارات باللغات التالية:

  • الصينية (المبسطة)
  • الفرنسية
  • الألمانية
  • الإسبانية
  • اليابانية
  • الكورية
  • الفيتنامية
  • وغيرها من اللغات

مشاريع عملية

أنواع المشاريع

  • تصنيف النصوص
  • توليد النصوص
  • أنظمة الإجابة على الأسئلة
  • تحليل المشاعر
  • التعرف على الكيانات المسماة
  • الترجمة الآلية
  • تلخيص النصوص

منصات الممارسة

  • جوجل كولاب (Google Colab) (موصى به للمبتدئين)
  • البيئة المحلية
  • Hugging Face Spaces

الشهادات والاعتماد

  • لا يوجد اعتماد رسمي حاليًا
  • Hugging Face تعمل على تطوير برنامج اعتماد
  • يمكن الحصول على حافظة مشاريع بعد إكمال الدورة

اقتراحات لمواصلة التعلم

بعد إكمال هذه الدورة، يوصى بمواصلة التعلم من خلال:

قيمة الدورة

هذه الدورة مناسبة بشكل خاص لـ:

  • المهندسين الذين يرغبون في البدء في تطوير LLM
  • المطورين الذين يحتاجون إلى دمج قدرات الذكاء الاصطناعي في منتجاتهم
  • الباحثين الذين يرغبون في فهم أحدث تقنيات معالجة اللغة الطبيعية
  • الفرق التي ترغب في بناء تطبيقات الذكاء الاصطناعي باستخدام أدوات مفتوحة المصدر

من خلال هذه الدورة، سيكتسب المتعلمون مجموعة مهارات تطوير LLM كاملة، من المفاهيم الأساسية إلى التطبيقات العملية.