المرحلة الرابعة: التعلم العميق والشبكات العصبية

يشرح أندريه كارباثي بالتفصيل تقنيات نماذج اللغة الكبيرة، بدءًا من الشبكات العصبية الأساسية وصولاً إلى نماذج GPT وLlama، مع تغطية كاملة لمكدس التدريب الخاص بها، بما في ذلك تقنيات متطورة مثل التعلّم المعزز من المدخلات البشرية (RLHF).

LLMالتعلّم_العميقالشبكات_العصبيةYouTubeVideoFreeEnglish

الغوص العميق في نماذج اللغة الكبيرة مثل ChatGPT - مقدمة الدورة

نظرة عامة على الدورة

هذه محاضرة متعمقة حول تقنية الذكاء الاصطناعي الخاصة بنماذج اللغة الكبيرة (Large Language Models - LLMs)، موجّهة لجمهور عام، وتشرح المبادئ التقنية التي تدعم ChatGPT والمنتجات المرتبطة به. تغطي الدورة بشكل شامل كامل سلسلة تدريب النموذج، بدءًا من فهم "النموذج النفسي" للنماذج، وصولاً إلى أفضل الطرق لاستخدامها عمليًا.

تاريخ النشر: 6 فبراير 2025
عدد المشاهدات: 3,899,830 مشاهدة

مقدمة عن المحاضر

أندريه كارباتي (Andrej Karpathy) خبير يتمتع بخبرة واسعة في مجال الذكاء الاصطناعي:

  • عضو مؤسس في OpenAI (2015)
  • المدير التنفيذي للذكاء الاصطناعي في تسلا (2017–2022)
  • حاليًا مؤسس Eureka Labs، ويعمل على إنشاء مدرسة مبنية على الذكاء الاصطناعي من الأساس

هدف المحاضر: رفع مستوى وعي الجمهور وفهمه لأحدث تقنيات الذكاء الاصطناعي، وتمكين الناس من استخدام أفضل وأحدث تقنيات الذكاء الاصطناعي بفعالية في أعمالهم.

لمزيد من المعلومات:

فصول الدورة

الجزء الأول: المفاهيم الأساسية

00:00:00 مقدمة

مقدمة الدورة

00:01:00 بيانات التدريب المبدئي (الإنترنت)

بيانات التدريب المبدئي (بيانات الإنترنت)

00:07:47 التجزئة (Tokenization)

تقنية التجزئة

00:14:27 مدخلات/مخرجات الشبكة العصبية

إدخال/إخراج الشبكة العصبية

00:20:11 البنية الداخلية للشبكة العصبية

البنية الداخلية للشبكة العصبية

00:26:01 الاستنتاج (Inference)

عملية الاستنتاج

الجزء الثاني: تدريب النموذج

00:31:09 GPT-2: التدريب والاستنتاج

GPT-2: التدريب والاستنتاج

00:42:52 استنتاج نموذج Llama 3.1 الأساسي

استنتاج نموذج Llama 3.1 الأساسي

00:59:23 من التدريب المبدئي إلى ما بعد التدريب

من التدريب المبدئي إلى ما بعد التدريب

01:01:06 بيانات ما بعد التدريب (المحادثات)

بيانات ما بعد التدريب (بيانات المحادثات)

الجزء الثالث: الخصائص المتقدمة

01:20:32 الهلوسات، استخدام الأدوات، الذاكرة المعرفية/العاملة

ظاهرة الهلوسة، استخدام الأدوات، المعرفة/الذاكرة العاملة

01:41:46 معرفة الذات

معرفة الذات

01:46:56 النماذج تحتاج إلى الرموز (Tokens) للتفكير

النماذج تحتاج إلى الرموز (Tokens) للتفكير

02:01:11 إعادة النظر في التجزئة: صعوبة النماذج في التهجئة

إعادة النظر في التجزئة: صعوبات النماذج في التهجئة

02:04:53 الذكاء غير المنتظم

الذكاء غير المنتظم

الجزء الرابع: التعلّم المعزّز

02:07:28 من الضبط الدقيق بالإشراف إلى التعلّم المعزّز

من الضبط الدقيق بالإشراف إلى التعلّم المعزّز

02:14:42 التعلّم المعزّز

التعلّم المعزّز

02:27:47 نموذج DeepSeek-R1

نموذج DeepSeek-R1

02:42:07 AlphaGo

حالة AlphaGo

02:48:26 التعلّم المعزّز من ردود الفعل البشرية (RLHF)

التعلّم المعزّز من ردود الفعل البشرية (RLHF)

الجزء الخامس: الخلاصة

03:09:39 لمحة عن المستقبل

لمحة عن المستقبل

03:15:15 تتبع تطورات نماذج اللغة الكبيرة

تتبع تطورات نماذج اللغة الكبيرة

03:18:34 أين تجد نماذج اللغة الكبيرة

أين تجد نماذج اللغة الكبيرة

03:21:46 خلاصة شاملة

خلاصة شاملة

مميزات الدورة

  1. شاملة ومنهجية: تغطي كامل المكدس التقني لنماذج اللغة الكبيرة، من معالجة البيانات الأساسية حتى التعلّم المعزّز المتقدم.
  2. ممارَسة وتطبيقية: لا تقتصر على النظرية فقط، بل تتضمن أيضًا كيفية تطبيق هذه النماذج عمليًا.
  3. واضحة وعميقة: موجهة لجمهور عام، دون التفريط في العمق التقني.
  4. حديثة ومتطورة: تتضمّن أحدث النماذج مثل Llama 3.1 وDeepSeek-R1.

الفئة المستهدفة

  • المبتدئون في الذكاء الاصطناعي/التعلّم الآلي الراغبون في فهم تقنية نماذج اللغة الكبيرة بشكل منهجي.
  • المطورون الذين يرغبون في فهم المبادئ الأساسية لمنتجات مثل ChatGPT.
  • جمهور عام مهتم بتقنيات الذكاء الاصطناعي.
  • المهنيون الذين يحتاجون إلى توظيف نماذج اللغة الكبيرة في أعمالهم.

الفوائد التعليمية

بعد إكمال هذه الدورة، ستتمكن من:

  • فهم آلية عمل نماذج اللغة الكبيرة.
  • إتقان العملية الكاملة من معالجة البيانات إلى نشر النموذج.
  • معرفة كيفية استخدام نماذج اللغة الكبيرة لحل المشكلات الواقعية بكفاءة.
  • إدراك حدود وقدرات نماذج اللغة الكبيرة.
  • متابعة وتقييم أحدث التطورات في مجال نماذج اللغة الكبيرة.