Quatrième étape : Apprentissage profond et réseaux de neurones
Andrej Karpathy explique en profondeur la technologie des grands modèles de langage, couvrant toute la pile d'entraînement complète, des réseaux neuronaux de base aux modèles GPT et Llama, ainsi que des techniques de pointe telles que l'apprentissage par renforcement avec retour humain (RLHF).
Plongée approfondie dans les LLM tels que ChatGPT – Présentation du cours
Aperçu du cours
Il s'agit d'une conférence approfondie sur l'intelligence artificielle et les grands modèles de langage (Large Language Models, LLM), destinée à un public général. Elle explique principalement les principes techniques sous-jacents à ChatGPT et aux produits associés. Le cours couvre l’ensemble de la chaîne complète d’entraînement des modèles, y compris la manière de comprendre le « modèle psychologique » des LLM ainsi que leur utilisation optimale dans des applications pratiques.
Date de publication : 6 février 2025
Nombre de vues : 3 899 830
Présentation de l’intervenant
Andrej Karpathy est un expert expérimenté dans le domaine de l’IA :
- Membre fondateur d’OpenAI (2015)
- Directeur senior de l’IA chez Tesla (2017–2022)
- Fondateur actuel d’Eureka Labs, où il crée une école native de l’IA
Objectif de l’intervenant : Accroître la compréhension du grand public vis-à-vis des dernières avancées en IA et permettre à chacun d’utiliser efficacement les technologies d’IA les plus récentes et performantes dans son travail.
Plus d’informations :
- Site personnel : https://karpathy.ai/
- Twitter : https://x.com/karpathy
Plan du cours
Concepts fondamentaux
00:00:00 Introduction
Présentation du cours
00:01:00 Données de pré-entraînement (Internet)
Données de pré-entraînement issues d’Internet
00:07:47 Tokenisation
Techniques de tokenisation
00:14:27 Entrées/sorties des réseaux de neurones
Entrées et sorties des réseaux de neurones
00:20:11 Structure interne des réseaux de neurones
Architecture interne des réseaux de neurones
00:26:01 Inférence
Processus d’inférence
Entraînement des modèles
00:31:09 GPT-2 : entraînement et inférence
GPT-2 : entraînement et inférence
00:42:52 Inférence du modèle de base Llama 3.1
Inférence avec le modèle de base Llama 3.1
00:59:23 Du pré-entraînement au post-entraînement
Du pré-entraînement au post-entraînement
01:01:06 Données de post-entraînement (conversations)
Données de post-entraînement (données conversationnelles)
Fonctionnalités avancées
01:20:32 Hallucinations, utilisation d’outils, mémoire de connaissance/mémoire de travail
Phénomènes d’hallucination, usage d’outils, connaissance/mémoire de travail
01:41:46 Connaissance de soi
Conscience de soi
01:46:56 Les modèles ont besoin de tokens pour réfléchir
Les modèles nécessitent des tokens pour « penser »
02:01:11 Revisite de la tokenisation : difficultés orthographiques des modèles
Retour sur la tokenisation : les modèles peinent à épeler correctement
02:04:53 Intelligence irrégulière
Intelligence irrégulière
Apprentissage par renforcement
02:07:28 Du fine-tuning supervisé à l’apprentissage par renforcement
Du fine-tuning supervisé à l’apprentissage par renforcement
02:14:42 Apprentissage par renforcement
Apprentissage par renforcement
02:27:47 DeepSeek-R1
Modèle DeepSeek-R1
02:42:07 AlphaGo
Cas d’étude : AlphaGo
02:48:26 Apprentissage par renforcement à partir de retours humains (RLHF)
Reinforcement Learning from Human Feedback (RLHF)
Conclusion
03:09:39 Aperçu des développements à venir
Perspectives futures
03:15:15 Suivre l’évolution des LLM
Comment suivre les progrès des LLM
03:18:34 Où trouver des LLM
Où trouver des LLM
03:21:46 Synthèse générale
Résumé global
Caractéristiques du cours
- Complet et systématique : couvre toute la pile technologique des LLM, du prétraitement des données jusqu’à l’apprentissage par renforcement avancé.
- Orientation pratique : combine théorie et applications concrètes des modèles.
- Accessible tout en étant rigoureux : conçu pour un public général, sans sacrifier la profondeur technique.
- Contenu à la pointe : inclut les modèles les plus récents, tels que Llama 3.1 et DeepSeek-R1.
Public cible
- Débutants en IA/apprentissage automatique souhaitant découvrir systématiquement les LLM
- Développeurs désireux de comprendre en profondeur les fondements techniques de produits comme ChatGPT
- Grand public intéressé par les technologies de l’IA
- Professionnels devant appliquer des LLM dans leur travail
Compétences acquises
À l’issue de ce cours, vous serez capable de :
- Comprendre le fonctionnement des grands modèles de langage
- Maîtriser l’ensemble du processus, du prétraitement des données au déploiement du modèle
- Savoir utiliser efficacement les LLM pour résoudre des problèmes concrets
- Identifier les limites et les capacités réelles des LLM
- Suivre et évaluer les dernières avancées dans le domaine des LLM