Home
Login

Cuarta etapa: Aprendizaje profundo y redes neuronales

Curso gratuito de modelos de lenguaje grandes y procesamiento del lenguaje natural ofrecido por Hugging Face, que cubre la pila tecnológica completa de Transformers, procesamiento de datos, ajuste fino de modelos, etc.

LLMNLPTransformersWebSiteTextFreeMulti-Language

Introducción Detallada al Curso de LLM de Hugging Face

Visión General del Curso

Este es un curso de Modelos de Lenguaje Grandes (LLM) y Procesamiento del Lenguaje Natural (PLN) ofrecido por Hugging Face, centrado en el aprendizaje y la práctica utilizando las librerías del ecosistema de Hugging Face.

Características del Curso

  • Completamente Gratuito: Sin anuncios, sin contenido de pago
  • Orientado a la Práctica: Combina teoría y práctica, proporcionando ejemplos de código
  • Filosofía de Código Abierto: Todo el contenido se publica bajo la Licencia Apache 2
  • Soporte Multilingüe: Soporta traducciones en múltiples idiomas
  • Impulsado por la Comunidad: Soporte y discusión activos de la comunidad

Estructura del Curso

Capítulos 1-4: Fundamentos de la librería 🤗 Transformers

  • Cómo funcionan los modelos Transformer
  • Cómo usar modelos del Hugging Face Hub
  • Técnicas de ajuste fino de modelos
  • Compartir resultados en el Hub

Capítulos 5-8: Procesamiento de Datos y Tareas Clásicas de PLN

  • Fundamentos de 🤗 Datasets y 🤗 Tokenizers
  • Procesamiento de tareas clásicas de PLN
  • Profundización en la tecnología LLM
  • Soluciones a desafíos comunes del procesamiento del lenguaje

Capítulo 9: Despliegue y Demostración de Modelos

  • Construir y compartir demostraciones de modelos
  • Mostrar aplicaciones en el 🤗 Hub
  • Técnicas de visualización de modelos

Capítulos 10-12: Temas Avanzados de LLM

  • Técnicas avanzadas de ajuste fino
  • Curación de conjuntos de datos de alta calidad
  • Construcción de modelos de inferencia
  • Últimos desarrollos en LLM

Pila Tecnológica Principal

Librerías Principales

  • 🤗 Transformers: Librería de modelos principal
  • 🤗 Datasets: Librería de procesamiento de datos
  • 🤗 Tokenizers: Librería de tokenizadores
  • 🤗 Accelerate: Librería de aceleración de entrenamiento
  • Hugging Face Hub: Centro de modelos y conjuntos de datos

Frameworks Compatibles

  • PyTorch
  • TensorFlow
  • JAX

Configuración del Entorno de Aprendizaje

Método 1: Google Colab

# Instalar versión básica
!pip install transformers

# Instalar versión completa (recomendado)
!pip install transformers[sentencepiece]

Método 2: Entorno Virtual de Python

# Crear directorio del proyecto
mkdir ~/transformers-course
cd ~/transformers-course

# Crear entorno virtual
python -m venv .env

# Activar entorno virtual
source .env/bin/activate

# Instalar dependencias
pip install "transformers[sentencepiece]"

Requisitos del Curso

Requisitos Técnicos

  • Fundamentos de Python: Se requiere un buen conocimiento de programación en Python
  • Fundamentos de Aprendizaje Profundo: Se recomienda haber completado un curso introductorio de aprendizaje profundo
  • Conocimiento de Frameworks: No se requiere experiencia en PyTorch o TensorFlow, pero tener algún conocimiento será útil

Cursos Prerrequisito Recomendados

Equipo de Autores del Curso

Autores Principales

  • Abubakar Abid: Fundador de Gradio, Doctorado en Stanford
  • Ben Burtenshaw: Doctorado en PLN, investigación en generación de historias infantiles
  • Matthew Carrigan: Investigador postdoctoral en Trinity College Dublin
  • Lysandre Debut: Desarrollador principal de 🤗 Transformers
  • Sylvain Gugger: Coautor de "Deep Learning for Coders"
  • Lewis Tunstall: Coautor de "Natural Language Processing with Transformers"
  • Leandro von Werra: Coautor de "Natural Language Processing with Transformers"

Horario de Estudio Sugerido

  • Duración por Capítulo: 1 semana
  • Tiempo de Estudio Semanal: 6-8 horas
  • Progreso General: Se puede ajustar según el ritmo personal

Recursos y Soporte

Recursos de Aprendizaje

Soporte Multilingüe

El curso está disponible en los siguientes idiomas:

  • Chino (simplificado)
  • Francés
  • Alemán
  • Español
  • Japonés
  • Coreano
  • Vietnamita
  • Y muchos otros idiomas

Proyectos Prácticos

Tipos de Proyecto

  • Clasificación de texto
  • Generación de texto
  • Sistemas de preguntas y respuestas
  • Análisis de sentimientos
  • Reconocimiento de entidades nombradas
  • Traducción automática
  • Resumen de texto

Plataformas de Práctica

  • Google Colab (recomendado para principiantes)
  • Entorno local
  • Hugging Face Spaces

Certificados y Acreditación

  • Actualmente no hay certificación formal
  • Hugging Face está desarrollando un programa de certificación
  • Al completar el curso, se puede obtener un portafolio de proyectos

Sugerencias para el Aprendizaje Continuo

Después de completar este curso, se recomienda continuar estudiando:

Valor del Curso

Este curso es especialmente adecuado para:

  • Ingenieros que deseen iniciarse en el desarrollo de LLM
  • Desarrolladores que necesiten integrar capacidades de IA en sus productos
  • Investigadores que deseen conocer las últimas tecnologías de PLN
  • Equipos que quieran construir aplicaciones de IA utilizando herramientas de código abierto

A través de este curso, los estudiantes dominarán el conjunto completo de habilidades de desarrollo de LLM, desde conceptos básicos hasta aplicaciones prácticas.