Quatrième étape : Apprentissage profond et réseaux de neurones

Andrej Karpathy explique en profondeur la technologie des grands modèles de langage, couvrant toute la pile d'entraînement complète, des réseaux neuronaux de base aux modèles GPT et Llama, ainsi que des techniques de pointe telles que l'apprentissage par renforcement avec retour humain (RLHF).

LLMApprentissageProfondRéseauNeuronalYouTubeVideoFreeEnglish

Plongée approfondie dans les LLM tels que ChatGPT – Présentation du cours

Aperçu du cours

Il s'agit d'une conférence approfondie sur l'intelligence artificielle et les grands modèles de langage (Large Language Models, LLM), destinée à un public général. Elle explique principalement les principes techniques sous-jacents à ChatGPT et aux produits associés. Le cours couvre l’ensemble de la chaîne complète d’entraînement des modèles, y compris la manière de comprendre le « modèle psychologique » des LLM ainsi que leur utilisation optimale dans des applications pratiques.

Date de publication : 6 février 2025
Nombre de vues : 3 899 830

Présentation de l’intervenant

Andrej Karpathy est un expert expérimenté dans le domaine de l’IA :

  • Membre fondateur d’OpenAI (2015)
  • Directeur senior de l’IA chez Tesla (2017–2022)
  • Fondateur actuel d’Eureka Labs, où il crée une école native de l’IA

Objectif de l’intervenant : Accroître la compréhension du grand public vis-à-vis des dernières avancées en IA et permettre à chacun d’utiliser efficacement les technologies d’IA les plus récentes et performantes dans son travail.

Plus d’informations :

Plan du cours

Concepts fondamentaux

00:00:00 Introduction

Présentation du cours

00:01:00 Données de pré-entraînement (Internet)

Données de pré-entraînement issues d’Internet

00:07:47 Tokenisation

Techniques de tokenisation

00:14:27 Entrées/sorties des réseaux de neurones

Entrées et sorties des réseaux de neurones

00:20:11 Structure interne des réseaux de neurones

Architecture interne des réseaux de neurones

00:26:01 Inférence

Processus d’inférence

Entraînement des modèles

00:31:09 GPT-2 : entraînement et inférence

GPT-2 : entraînement et inférence

00:42:52 Inférence du modèle de base Llama 3.1

Inférence avec le modèle de base Llama 3.1

00:59:23 Du pré-entraînement au post-entraînement

Du pré-entraînement au post-entraînement

01:01:06 Données de post-entraînement (conversations)

Données de post-entraînement (données conversationnelles)

Fonctionnalités avancées

01:20:32 Hallucinations, utilisation d’outils, mémoire de connaissance/mémoire de travail

Phénomènes d’hallucination, usage d’outils, connaissance/mémoire de travail

01:41:46 Connaissance de soi

Conscience de soi

01:46:56 Les modèles ont besoin de tokens pour réfléchir

Les modèles nécessitent des tokens pour « penser »

02:01:11 Revisite de la tokenisation : difficultés orthographiques des modèles

Retour sur la tokenisation : les modèles peinent à épeler correctement

02:04:53 Intelligence irrégulière

Intelligence irrégulière

Apprentissage par renforcement

02:07:28 Du fine-tuning supervisé à l’apprentissage par renforcement

Du fine-tuning supervisé à l’apprentissage par renforcement

02:14:42 Apprentissage par renforcement

Apprentissage par renforcement

02:27:47 DeepSeek-R1

Modèle DeepSeek-R1

02:42:07 AlphaGo

Cas d’étude : AlphaGo

02:48:26 Apprentissage par renforcement à partir de retours humains (RLHF)

Reinforcement Learning from Human Feedback (RLHF)

Conclusion

03:09:39 Aperçu des développements à venir

Perspectives futures

03:15:15 Suivre l’évolution des LLM

Comment suivre les progrès des LLM

03:18:34 Où trouver des LLM

Où trouver des LLM

03:21:46 Synthèse générale

Résumé global

Caractéristiques du cours

  1. Complet et systématique : couvre toute la pile technologique des LLM, du prétraitement des données jusqu’à l’apprentissage par renforcement avancé.
  2. Orientation pratique : combine théorie et applications concrètes des modèles.
  3. Accessible tout en étant rigoureux : conçu pour un public général, sans sacrifier la profondeur technique.
  4. Contenu à la pointe : inclut les modèles les plus récents, tels que Llama 3.1 et DeepSeek-R1.

Public cible

  • Débutants en IA/apprentissage automatique souhaitant découvrir systématiquement les LLM
  • Développeurs désireux de comprendre en profondeur les fondements techniques de produits comme ChatGPT
  • Grand public intéressé par les technologies de l’IA
  • Professionnels devant appliquer des LLM dans leur travail

Compétences acquises

À l’issue de ce cours, vous serez capable de :

  • Comprendre le fonctionnement des grands modèles de langage
  • Maîtriser l’ensemble du processus, du prétraitement des données au déploiement du modèle
  • Savoir utiliser efficacement les LLM pour résoudre des problèmes concrets
  • Identifier les limites et les capacités réelles des LLM
  • Suivre et évaluer les dernières avancées dans le domaine des LLM