Phase 4: Deep Learning und neuronale Netze
Andrej Karpathy erläutert tiefgehend die Technologie großer Sprachmodelle – vom grundlegenden neuronalen Netzwerk bis hin zum vollständigen Trainings-Stack von Modellen wie GPT und Llama, einschließlich modernster Techniken wie RLHF (Reinforcement Learning from Human Feedback).
Deep Dive in LLMs wie ChatGPT – Kursvorstellung
Kursübersicht
Dies ist ein tiefgehender Vortrag über Large Language Models (LLMs), eine KI-Technologie, der sich an ein allgemeines Publikum richtet und hauptsächlich die technischen Grundlagen hinter ChatGPT und verwandten Produkten erläutert. Der Kurs deckt den gesamten Trainings-Stack der Modellentwicklung umfassend ab – einschließlich des Verständnisses des „psychologischen“ Denkmodells solcher Modelle sowie der optimalen praktischen Anwendung.
Veröffentlichungsdatum: 6. Februar 2025
Aufrufe: 3.899.830
Dozentenvorstellung
Andrej Karpathy ist ein erfahrener Experte im Bereich KI:
- Gründungsmitglied von OpenAI (2015)
- Senior Director of AI bei Tesla (2017–2022)
- Gründer von Eureka Labs, wo er derzeit eine KI-native Schule aufbaut
Ziel des Dozenten: Das allgemeine Verständnis und Bewusstsein für aktuelle KI-Technologien zu verbessern und Menschen zu befähigen, die neuesten und besten KI-Technologien effektiv in ihrer Arbeit einzusetzen.
Weitere Informationen:
- Persönliche Website: https://karpathy.ai/
- Twitter: https://x.com/karpathy
Kursinhalte
Grundlegende Konzepte
00:00:00 Einführung
Kursvorstellung
00:01:00 Vortrainingsdaten (Internet)
Vortrainingsdaten aus dem Internet
00:07:47 Tokenisierung
Tokenisierungstechniken
00:14:27 Ein- und Ausgabe neuronaler Netze
Input/Output neuronaler Netze
00:20:11 Interne Struktur neuronaler Netze
Interne Architektur neuronaler Netze
00:26:01 Inferenz
Inferenzprozess
Modelltraining
00:31:09 GPT-2: Training und Inferenz
GPT-2: Training und Inferenz
00:42:52 Llama 3.1 Basismodell-Inferenz
Inferenz des Llama-3.1-Basismodells
00:59:23 Vom Vortraining zum Nachtraining
Vom Vortraining zum Nachtraining
01:01:06 Nachtrainingsdaten (Konversationen)
Nachtrainingsdaten aus Dialogen
Fortgeschrittene Funktionen
01:20:32 Halluzinationen, Werkzeugnutzung, Wissen/Arbeitsgedächtnis
Halluzinationen, Nutzung externer Werkzeuge, Wissen und Arbeitsgedächtnis
01:41:46 Selbstwahrnehmung
Selbstwahrnehmung
01:46:56 Modelle benötigen Tokens zum Denken
Modelle brauchen Tokens, um zu „denken“
02:01:11 Tokenisierung neu betrachtet: Schwierigkeiten bei Rechtschreibung
Erneute Betrachtung der Tokenisierung: Probleme der Modelle mit Rechtschreibung
02:04:53 Unebenmäßige Intelligenz
Unebenmäßige („jagged“) Intelligenz
Bestärkendes Lernen (Reinforcement Learning)
02:07:28 Vom überwachten Feintuning zum bestärkenden Lernen
Vom überwachten Feintuning zum Reinforcement Learning
02:14:42 Bestärkendes Lernen
Reinforcement Learning
02:27:47 DeepSeek-R1
DeepSeek-R1-Modell
02:42:07 AlphaGo
AlphaGo-Fallstudie
02:48:26 Reinforcement Learning aus menschlichem Feedback (RLHF)
Reinforcement Learning aus menschlichem Feedback (RLHF)
Zusammenfassung
03:09:39 Ausblick auf zukünftige Entwicklungen
Vorschau auf kommende Entwicklungen
03:15:15 LLM-Entwicklungen verfolgen
Den Überblick über LLM-Entwicklungen behalten
03:18:34 Wo man LLMs findet
Wo man LLMs finden kann
03:21:46 Große Zusammenfassung
Abschließende Gesamtzusammenfassung
Kursmerkmale
- Umfassend und systematisch: Von der Datenverarbeitung bis hin zu fortgeschrittenem Reinforcement Learning – der gesamte technische Stack von LLMs wird behandelt.
- Praxisorientiert: Neben Theorie werden auch konkrete Anwendungen dieser Modelle erläutert.
- Verständlich und dennoch tiefgründig: Für ein breites Publikum konzipiert, ohne technische Tiefe zu vernachlässigen.
- Aktuelle Inhalte: Enthält neueste Modelle wie Llama 3.1 und DeepSeek-R1.
Zielgruppe
- KI-/Machine-Learning-Anfänger, die LLM-Technologien systematisch verstehen möchten
- Entwickler, die die zugrundeliegenden Prinzipien von Produkten wie ChatGPT vertieft erlernen wollen
- Allgemeines Publikum mit Interesse an KI-Technologien
- Fachleute, die LLMs in ihrer beruflichen Praxis einsetzen möchten
Lernerfolge
Nach Abschluss dieses Kurses werden Sie in der Lage sein:
- Die Funktionsweise großer Sprachmodelle zu verstehen
- Den vollständigen Prozess von der Datenverarbeitung bis zur Modellbereitstellung zu beherrschen
- LLMs effektiv zur Lösung praktischer Probleme einzusetzen
- Die Fähigkeiten und Grenzen von LLMs realistisch einzuschätzen
- Aktuelle Entwicklungen im Bereich LLM zu verfolgen und zu bewerten