Cuarta etapa: Aprendizaje profundo y redes neuronales

Andrej Karpathy explica en profundidad la tecnología de los modelos de lenguaje grandes, cubriendo desde redes neuronales básicas hasta pilas completas de entrenamiento de modelos como GPT y Llama, incluyendo técnicas avanzadas como el aprendizaje por refuerzo con retroalimentación humana (RLHF).

LLMAprendizajeProfundoRedesNeuronalesYouTubeVideoFreeEnglish

Inmersión profunda en LLMs como ChatGPT – Introducción al curso

Descripción general del curso

Esta es una charla técnica en profundidad sobre modelos de lenguaje grandes (Large Language Models, LLM) dirigida a una audiencia general, centrada principalmente en los principios técnicos que sustentan ChatGPT y productos relacionados. El curso cubre de forma integral toda la pila de entrenamiento necesaria para desarrollar estos modelos, incluyendo cómo entender el "modelo psicológico" de los mismos y cómo utilizarlos de la mejor manera en aplicaciones prácticas.

Fecha de publicación: 6 de febrero de 2025
Visualizaciones: 3.899.830

Presentación del instructor

Andrej Karpathy es un experto con amplia experiencia en inteligencia artificial:

  • Miembro fundador de OpenAI (2015)
  • Director Senior de IA en Tesla (2017–2022)
  • Actualmente es fundador de Eureka Labs, donde está creando una escuela nativa de IA

Objetivo del instructor: Elevar la comprensión pública sobre las últimas tecnologías de IA y capacitar a las personas para usar eficazmente las mejores herramientas de IA disponibles en su trabajo.

Más información:

Contenido del curso

Conceptos básicos

00:00:00 Introducción

Introducción al curso

00:01:00 Datos de preentrenamiento (internet)

Preentrenamiento con datos provenientes de internet

00:07:47 Tokenización

Técnicas de tokenización

00:14:27 Entrada/Salida de redes neuronales

Entrada y salida en redes neuronales

00:20:11 Internos de la red neuronal

Estructura interna de la red neuronal

00:26:01 Inferencia

Proceso de inferencia

Entrenamiento del modelo

00:31:09 GPT-2: entrenamiento e inferencia

GPT-2: entrenamiento e inferencia

00:42:52 Inferencia del modelo base Llama 3.1

Inferencia del modelo base Llama 3.1

00:59:23 Del preentrenamiento al post-entrenamiento

Del preentrenamiento al post-entrenamiento

01:01:06 Datos de post-entrenamiento (conversaciones)

Datos de post-entrenamiento (datos de conversaciones)

Características avanzadas

01:20:32 Alucinaciones, uso de herramientas, conocimiento/memoria de trabajo

Alucinaciones, uso de herramientas, conocimiento y memoria de trabajo

01:41:46 Conocimiento de sí mismo

Autoconciencia

01:46:56 Los modelos necesitan tokens para pensar

Los modelos requieren tokens para razonar

02:01:11 Revisión de la tokenización: dificultades de los modelos con la ortografía

Revisión de la tokenización: problemas de los modelos con la ortografía

02:04:53 Inteligencia irregular

Inteligencia irregular

Aprendizaje por refuerzo

02:07:28 Del ajuste fino supervisado al aprendizaje por refuerzo

Del ajuste fino supervisado al aprendizaje por refuerzo

02:14:42 Aprendizaje por refuerzo

Aprendizaje por refuerzo

02:27:47 DeepSeek-R1

Modelo DeepSeek-R1

02:42:07 AlphaGo

Caso de estudio: AlphaGo

02:48:26 Aprendizaje por refuerzo a partir de retroalimentación humana (RLHF)

Aprendizaje por refuerzo mediante retroalimentación humana (RLHF)

Conclusión

03:09:39 Avance de lo que viene

Avance de futuros desarrollos

03:15:15 Cómo seguir el progreso de los LLM

Cómo mantenerse al día con los avances en LLM

03:18:34 Dónde encontrar LLM

Dónde encontrar modelos de lenguaje grandes

03:21:46 Resumen general

Resumen final

Características del curso

  1. Integral y sistemático: Cubre toda la pila técnica de los LLM, desde el preprocesamiento de datos hasta técnicas avanzadas de aprendizaje por refuerzo.
  2. Orientado a la práctica: Explica no solo teoría, sino también cómo aplicar estos modelos en la práctica.
  3. Accesible pero riguroso: Diseñado para una audiencia general sin sacrificar profundidad técnica.
  4. Contenido de vanguardia: Incluye los modelos más recientes, como Llama 3.1 y DeepSeek-R1.

Público objetivo

  • Principiantes en IA/aprendizaje automático que deseen comprender sistemáticamente la tecnología de los LLM.
  • Desarrolladores que quieran entender a fondo los fundamentos técnicos de productos como ChatGPT.
  • Audiencia general interesada en la tecnología de IA.
  • Profesionales que necesiten aplicar LLM en su trabajo.

Resultados del aprendizaje

Al completar este curso, usted podrá:

  • Comprender el funcionamiento interno de los modelos de lenguaje grandes.
  • Dominar el flujo completo, desde el preprocesamiento de datos hasta la implementación del modelo.
  • Aprender a utilizar eficazmente los LLM para resolver problemas reales.
  • Reconocer las capacidades, límites y limitaciones de los LLM.
  • Seguir y evaluar los avances más recientes en el campo de los modelos de lenguaje grandes.