Phase 4: Deep Learning und neuronale Netze

Andrej Karpathy erläutert tiefgehend die Technologie großer Sprachmodelle – vom grundlegenden neuronalen Netzwerk bis hin zum vollständigen Trainings-Stack von Modellen wie GPT und Llama, einschließlich modernster Techniken wie RLHF (Reinforcement Learning from Human Feedback).

LLMDeepLearningNeuralNetworkYouTubeVideoFreeEnglish

Deep Dive in LLMs wie ChatGPT – Kursvorstellung

Kursübersicht

Dies ist ein tiefgehender Vortrag über Large Language Models (LLMs), eine KI-Technologie, der sich an ein allgemeines Publikum richtet und hauptsächlich die technischen Grundlagen hinter ChatGPT und verwandten Produkten erläutert. Der Kurs deckt den gesamten Trainings-Stack der Modellentwicklung umfassend ab – einschließlich des Verständnisses des „psychologischen“ Denkmodells solcher Modelle sowie der optimalen praktischen Anwendung.

Veröffentlichungsdatum: 6. Februar 2025
Aufrufe: 3.899.830

Dozentenvorstellung

Andrej Karpathy ist ein erfahrener Experte im Bereich KI:

  • Gründungsmitglied von OpenAI (2015)
  • Senior Director of AI bei Tesla (2017–2022)
  • Gründer von Eureka Labs, wo er derzeit eine KI-native Schule aufbaut

Ziel des Dozenten: Das allgemeine Verständnis und Bewusstsein für aktuelle KI-Technologien zu verbessern und Menschen zu befähigen, die neuesten und besten KI-Technologien effektiv in ihrer Arbeit einzusetzen.

Weitere Informationen:

Kursinhalte

Grundlegende Konzepte

00:00:00 Einführung

Kursvorstellung

00:01:00 Vortrainingsdaten (Internet)

Vortrainingsdaten aus dem Internet

00:07:47 Tokenisierung

Tokenisierungstechniken

00:14:27 Ein- und Ausgabe neuronaler Netze

Input/Output neuronaler Netze

00:20:11 Interne Struktur neuronaler Netze

Interne Architektur neuronaler Netze

00:26:01 Inferenz

Inferenzprozess

Modelltraining

00:31:09 GPT-2: Training und Inferenz

GPT-2: Training und Inferenz

00:42:52 Llama 3.1 Basismodell-Inferenz

Inferenz des Llama-3.1-Basismodells

00:59:23 Vom Vortraining zum Nachtraining

Vom Vortraining zum Nachtraining

01:01:06 Nachtrainingsdaten (Konversationen)

Nachtrainingsdaten aus Dialogen

Fortgeschrittene Funktionen

01:20:32 Halluzinationen, Werkzeugnutzung, Wissen/Arbeitsgedächtnis

Halluzinationen, Nutzung externer Werkzeuge, Wissen und Arbeitsgedächtnis

01:41:46 Selbstwahrnehmung

Selbstwahrnehmung

01:46:56 Modelle benötigen Tokens zum Denken

Modelle brauchen Tokens, um zu „denken“

02:01:11 Tokenisierung neu betrachtet: Schwierigkeiten bei Rechtschreibung

Erneute Betrachtung der Tokenisierung: Probleme der Modelle mit Rechtschreibung

02:04:53 Unebenmäßige Intelligenz

Unebenmäßige („jagged“) Intelligenz

Bestärkendes Lernen (Reinforcement Learning)

02:07:28 Vom überwachten Feintuning zum bestärkenden Lernen

Vom überwachten Feintuning zum Reinforcement Learning

02:14:42 Bestärkendes Lernen

Reinforcement Learning

02:27:47 DeepSeek-R1

DeepSeek-R1-Modell

02:42:07 AlphaGo

AlphaGo-Fallstudie

02:48:26 Reinforcement Learning aus menschlichem Feedback (RLHF)

Reinforcement Learning aus menschlichem Feedback (RLHF)

Zusammenfassung

03:09:39 Ausblick auf zukünftige Entwicklungen

Vorschau auf kommende Entwicklungen

03:15:15 LLM-Entwicklungen verfolgen

Den Überblick über LLM-Entwicklungen behalten

03:18:34 Wo man LLMs findet

Wo man LLMs finden kann

03:21:46 Große Zusammenfassung

Abschließende Gesamtzusammenfassung

Kursmerkmale

  1. Umfassend und systematisch: Von der Datenverarbeitung bis hin zu fortgeschrittenem Reinforcement Learning – der gesamte technische Stack von LLMs wird behandelt.
  2. Praxisorientiert: Neben Theorie werden auch konkrete Anwendungen dieser Modelle erläutert.
  3. Verständlich und dennoch tiefgründig: Für ein breites Publikum konzipiert, ohne technische Tiefe zu vernachlässigen.
  4. Aktuelle Inhalte: Enthält neueste Modelle wie Llama 3.1 und DeepSeek-R1.

Zielgruppe

  • KI-/Machine-Learning-Anfänger, die LLM-Technologien systematisch verstehen möchten
  • Entwickler, die die zugrundeliegenden Prinzipien von Produkten wie ChatGPT vertieft erlernen wollen
  • Allgemeines Publikum mit Interesse an KI-Technologien
  • Fachleute, die LLMs in ihrer beruflichen Praxis einsetzen möchten

Lernerfolge

Nach Abschluss dieses Kurses werden Sie in der Lage sein:

  • Die Funktionsweise großer Sprachmodelle zu verstehen
  • Den vollständigen Prozess von der Datenverarbeitung bis zur Modellbereitstellung zu beherrschen
  • LLMs effektiv zur Lösung praktischer Probleme einzusetzen
  • Die Fähigkeiten und Grenzen von LLMs realistisch einzuschätzen
  • Aktuelle Entwicklungen im Bereich LLM zu verfolgen und zu bewerten