第四階段:深度學習與神經網路
Andrej Karpathy 深度講解大型語言模型技術,從基礎神經網路到 GPT、Llama 模型的完整訓練棧,涵蓋 RLHF 強化學習等前沿技術
深入探討 ChatGPT 這類大型語言模型(LLM)— 課程介紹
課程概述
這是一場面向一般觀眾的大型語言模型(Large Language Model, LLM)AI 技術深度講座,主要講解支撐 ChatGPT 及相關產品背後的技術原理。課程全面涵蓋模型開發的完整訓練流程,包括如何理解模型的「心理學」思維模式,以及如何在實際應用中最佳地使用這些模型。
發布日期:2025 年 2 月 6 日
觀看次數:3,899,830 次
講師介紹
Andrej Karpathy 是一位在 AI 領域經驗豐富的專家:
- OpenAI 創始成員(2015 年)
- 特斯拉 AI 高級總監(2017–2022 年)
- 現為 Eureka Labs 創辦人,正籌建一所 AI 原生學校
講師目標:提升大眾對 AI 最新技術的認知與理解,賦能人們在工作中有效運用最先進、最優秀的 AI 技術。
更多資訊:
- 個人網站:https://karpathy.ai/
- Twitter:https://x.com/karpathy
課程章節
基礎概念部分
00:00:00 introduction
課程介紹
00:01:00 pretraining data (internet)
預訓練數據(網際網路數據)
00:07:47 tokenization
分詞技術
00:14:27 neural network I/O
神經網路輸入/輸出
00:20:11 neural network internals
神經網路內部結構
00:26:01 inference
推理過程
模型訓練部分
00:31:09 GPT-2: training and inference
GPT-2:訓練與推理
00:42:52 Llama 3.1 base model inference
Llama 3.1 基礎模型推理
00:59:23 pretraining to post-training
從預訓練到後訓練
01:01:06 post-training data (conversations)
後訓練數據(對話數據)
高級特性部分
01:20:32 hallucinations, tool use, knowledge/working memory
幻覺現象、工具使用、知識/工作記憶
01:41:46 knowledge of self
自我認知
01:46:56 models need tokens to think
模型需要 token 來思考
02:01:11 tokenization revisited: models struggle with spelling
重訪分詞:模型在拼寫方面的困難
02:04:53 jagged intelligence
不規則智能
強化學習部分
02:07:28 supervised finetuning to reinforcement learning
從監督微調到強化學習
02:14:42 reinforcement learning
強化學習
02:27:47 DeepSeek-R1
DeepSeek-R1 模型
02:42:07 AlphaGo
AlphaGo 案例
02:48:26 reinforcement learning from human feedback (RLHF)
基於人類回饋的強化學習(RLHF)
總結部分
03:09:39 preview of things to come
未來展望
03:15:15 keeping track of LLMs
追蹤 LLM 發展
03:18:34 where to find LLMs
在哪裡找到 LLM
03:21:46 grand summary
總結
課程特點
- 全面系統:從基礎的數據預處理到高階的強化學習,涵蓋 LLM 的完整技術棧
- 實踐導向:不僅講解理論,還包含如何實際應用這些模型
- 深入淺出:面向一般觀眾,但不失技術深度
- 前沿內容:包含最新模型如 Llama 3.1、DeepSeek-R1 等
適合人群
- 想系統了解 LLM 技術的 AI/機器學習初學者
- 希望深入理解 ChatGPT 等產品底層原理的開發者
- 對 AI 技術感興趣的一般觀眾
- 需要在工作中應用 LLM 的專業人士
學習收穫
透過本課程的學習,您將能夠:
- 理解大型語言模型的工作原理
- 掌握從數據預處理到模型部署的完整流程
- 了解如何有效運用 LLM 解決實際問題
- 認識 LLM 的能力邊界與局限性
- 追蹤並評估最新的 LLM 發展動態