Cuarta etapa: Aprendizaje profundo y redes neuronales
Curso gratuito de modelos de lenguaje grandes y procesamiento del lenguaje natural ofrecido por Hugging Face, que cubre la pila tecnológica completa de Transformers, procesamiento de datos, ajuste fino de modelos, etc.
Introducción Detallada al Curso de LLM de Hugging Face
Visión General del Curso
Este es un curso de Modelos de Lenguaje Grandes (LLM) y Procesamiento del Lenguaje Natural (PLN) ofrecido por Hugging Face, centrado en el aprendizaje y la práctica utilizando las librerías del ecosistema de Hugging Face.
Características del Curso
- Completamente Gratuito: Sin anuncios, sin contenido de pago
- Orientado a la Práctica: Combina teoría y práctica, proporcionando ejemplos de código
- Filosofía de Código Abierto: Todo el contenido se publica bajo la Licencia Apache 2
- Soporte Multilingüe: Soporta traducciones en múltiples idiomas
- Impulsado por la Comunidad: Soporte y discusión activos de la comunidad
Estructura del Curso
Capítulos 1-4: Fundamentos de la librería 🤗 Transformers
- Cómo funcionan los modelos Transformer
- Cómo usar modelos del Hugging Face Hub
- Técnicas de ajuste fino de modelos
- Compartir resultados en el Hub
Capítulos 5-8: Procesamiento de Datos y Tareas Clásicas de PLN
- Fundamentos de 🤗 Datasets y 🤗 Tokenizers
- Procesamiento de tareas clásicas de PLN
- Profundización en la tecnología LLM
- Soluciones a desafíos comunes del procesamiento del lenguaje
Capítulo 9: Despliegue y Demostración de Modelos
- Construir y compartir demostraciones de modelos
- Mostrar aplicaciones en el 🤗 Hub
- Técnicas de visualización de modelos
Capítulos 10-12: Temas Avanzados de LLM
- Técnicas avanzadas de ajuste fino
- Curación de conjuntos de datos de alta calidad
- Construcción de modelos de inferencia
- Últimos desarrollos en LLM
Pila Tecnológica Principal
Librerías Principales
- 🤗 Transformers: Librería de modelos principal
- 🤗 Datasets: Librería de procesamiento de datos
- 🤗 Tokenizers: Librería de tokenizadores
- 🤗 Accelerate: Librería de aceleración de entrenamiento
- Hugging Face Hub: Centro de modelos y conjuntos de datos
Frameworks Compatibles
- PyTorch
- TensorFlow
- JAX
Configuración del Entorno de Aprendizaje
Método 1: Google Colab
# Instalar versión básica
!pip install transformers
# Instalar versión completa (recomendado)
!pip install transformers[sentencepiece]
Método 2: Entorno Virtual de Python
# Crear directorio del proyecto
mkdir ~/transformers-course
cd ~/transformers-course
# Crear entorno virtual
python -m venv .env
# Activar entorno virtual
source .env/bin/activate
# Instalar dependencias
pip install "transformers[sentencepiece]"
Requisitos del Curso
Requisitos Técnicos
- Fundamentos de Python: Se requiere un buen conocimiento de programación en Python
- Fundamentos de Aprendizaje Profundo: Se recomienda haber completado un curso introductorio de aprendizaje profundo
- Conocimiento de Frameworks: No se requiere experiencia en PyTorch o TensorFlow, pero tener algún conocimiento será útil
Cursos Prerrequisito Recomendados
- fast.ai's Practical Deep Learning for Coders
- Cursos relacionados de DeepLearning.AI
Equipo de Autores del Curso
Autores Principales
- Abubakar Abid: Fundador de Gradio, Doctorado en Stanford
- Ben Burtenshaw: Doctorado en PLN, investigación en generación de historias infantiles
- Matthew Carrigan: Investigador postdoctoral en Trinity College Dublin
- Lysandre Debut: Desarrollador principal de 🤗 Transformers
- Sylvain Gugger: Coautor de "Deep Learning for Coders"
- Lewis Tunstall: Coautor de "Natural Language Processing with Transformers"
- Leandro von Werra: Coautor de "Natural Language Processing with Transformers"
Horario de Estudio Sugerido
- Duración por Capítulo: 1 semana
- Tiempo de Estudio Semanal: 6-8 horas
- Progreso General: Se puede ajustar según el ritmo personal
Recursos y Soporte
Recursos de Aprendizaje
- Notebooks Interactivos: Google Colab y Amazon SageMaker Studio Lab
- Repositorio de Código: huggingface/notebooks
- Foro del Curso: Hugging Face forums
Soporte Multilingüe
El curso está disponible en los siguientes idiomas:
- Chino (simplificado)
- Francés
- Alemán
- Español
- Japonés
- Coreano
- Vietnamita
- Y muchos otros idiomas
Proyectos Prácticos
Tipos de Proyecto
- Clasificación de texto
- Generación de texto
- Sistemas de preguntas y respuestas
- Análisis de sentimientos
- Reconocimiento de entidades nombradas
- Traducción automática
- Resumen de texto
Plataformas de Práctica
- Google Colab (recomendado para principiantes)
- Entorno local
- Hugging Face Spaces
Certificados y Acreditación
- Actualmente no hay certificación formal
- Hugging Face está desarrollando un programa de certificación
- Al completar el curso, se puede obtener un portafolio de proyectos
Sugerencias para el Aprendizaje Continuo
Después de completar este curso, se recomienda continuar estudiando:
- DeepLearning.AI's Natural Language Processing Specialization
- Modelos tradicionales de PLN: Naive Bayes, LSTM, etc.
- Estudio de arquitecturas Transformer más avanzadas
Valor del Curso
Este curso es especialmente adecuado para:
- Ingenieros que deseen iniciarse en el desarrollo de LLM
- Desarrolladores que necesiten integrar capacidades de IA en sus productos
- Investigadores que deseen conocer las últimas tecnologías de PLN
- Equipos que quieran construir aplicaciones de IA utilizando herramientas de código abierto
A través de este curso, los estudiantes dominarán el conjunto completo de habilidades de desarrollo de LLM, desde conceptos básicos hasta aplicaciones prácticas.