Cuarta etapa: Aprendizaje profundo y redes neuronales
Andrej Karpathy explica en profundidad la tecnología de los modelos de lenguaje grandes, cubriendo desde redes neuronales básicas hasta pilas completas de entrenamiento de modelos como GPT y Llama, incluyendo técnicas avanzadas como el aprendizaje por refuerzo con retroalimentación humana (RLHF).
Inmersión profunda en LLMs como ChatGPT – Introducción al curso
Descripción general del curso
Esta es una charla técnica en profundidad sobre modelos de lenguaje grandes (Large Language Models, LLM) dirigida a una audiencia general, centrada principalmente en los principios técnicos que sustentan ChatGPT y productos relacionados. El curso cubre de forma integral toda la pila de entrenamiento necesaria para desarrollar estos modelos, incluyendo cómo entender el "modelo psicológico" de los mismos y cómo utilizarlos de la mejor manera en aplicaciones prácticas.
Fecha de publicación: 6 de febrero de 2025
Visualizaciones: 3.899.830
Presentación del instructor
Andrej Karpathy es un experto con amplia experiencia en inteligencia artificial:
- Miembro fundador de OpenAI (2015)
- Director Senior de IA en Tesla (2017–2022)
- Actualmente es fundador de Eureka Labs, donde está creando una escuela nativa de IA
Objetivo del instructor: Elevar la comprensión pública sobre las últimas tecnologías de IA y capacitar a las personas para usar eficazmente las mejores herramientas de IA disponibles en su trabajo.
Más información:
- Sitio web personal: https://karpathy.ai/
- Twitter: https://x.com/karpathy
Contenido del curso
Conceptos básicos
00:00:00 Introducción
Introducción al curso
00:01:00 Datos de preentrenamiento (internet)
Preentrenamiento con datos provenientes de internet
00:07:47 Tokenización
Técnicas de tokenización
00:14:27 Entrada/Salida de redes neuronales
Entrada y salida en redes neuronales
00:20:11 Internos de la red neuronal
Estructura interna de la red neuronal
00:26:01 Inferencia
Proceso de inferencia
Entrenamiento del modelo
00:31:09 GPT-2: entrenamiento e inferencia
GPT-2: entrenamiento e inferencia
00:42:52 Inferencia del modelo base Llama 3.1
Inferencia del modelo base Llama 3.1
00:59:23 Del preentrenamiento al post-entrenamiento
Del preentrenamiento al post-entrenamiento
01:01:06 Datos de post-entrenamiento (conversaciones)
Datos de post-entrenamiento (datos de conversaciones)
Características avanzadas
01:20:32 Alucinaciones, uso de herramientas, conocimiento/memoria de trabajo
Alucinaciones, uso de herramientas, conocimiento y memoria de trabajo
01:41:46 Conocimiento de sí mismo
Autoconciencia
01:46:56 Los modelos necesitan tokens para pensar
Los modelos requieren tokens para razonar
02:01:11 Revisión de la tokenización: dificultades de los modelos con la ortografía
Revisión de la tokenización: problemas de los modelos con la ortografía
02:04:53 Inteligencia irregular
Inteligencia irregular
Aprendizaje por refuerzo
02:07:28 Del ajuste fino supervisado al aprendizaje por refuerzo
Del ajuste fino supervisado al aprendizaje por refuerzo
02:14:42 Aprendizaje por refuerzo
Aprendizaje por refuerzo
02:27:47 DeepSeek-R1
Modelo DeepSeek-R1
02:42:07 AlphaGo
Caso de estudio: AlphaGo
02:48:26 Aprendizaje por refuerzo a partir de retroalimentación humana (RLHF)
Aprendizaje por refuerzo mediante retroalimentación humana (RLHF)
Conclusión
03:09:39 Avance de lo que viene
Avance de futuros desarrollos
03:15:15 Cómo seguir el progreso de los LLM
Cómo mantenerse al día con los avances en LLM
03:18:34 Dónde encontrar LLM
Dónde encontrar modelos de lenguaje grandes
03:21:46 Resumen general
Resumen final
Características del curso
- Integral y sistemático: Cubre toda la pila técnica de los LLM, desde el preprocesamiento de datos hasta técnicas avanzadas de aprendizaje por refuerzo.
- Orientado a la práctica: Explica no solo teoría, sino también cómo aplicar estos modelos en la práctica.
- Accesible pero riguroso: Diseñado para una audiencia general sin sacrificar profundidad técnica.
- Contenido de vanguardia: Incluye los modelos más recientes, como Llama 3.1 y DeepSeek-R1.
Público objetivo
- Principiantes en IA/aprendizaje automático que deseen comprender sistemáticamente la tecnología de los LLM.
- Desarrolladores que quieran entender a fondo los fundamentos técnicos de productos como ChatGPT.
- Audiencia general interesada en la tecnología de IA.
- Profesionales que necesiten aplicar LLM en su trabajo.
Resultados del aprendizaje
Al completar este curso, usted podrá:
- Comprender el funcionamiento interno de los modelos de lenguaje grandes.
- Dominar el flujo completo, desde el preprocesamiento de datos hasta la implementación del modelo.
- Aprender a utilizar eficazmente los LLM para resolver problemas reales.
- Reconocer las capacidades, límites y limitaciones de los LLM.
- Seguir y evaluar los avances más recientes en el campo de los modelos de lenguaje grandes.