Quarta Etapa: Aprendizado Profundo e Redes Neurais
Curso gratuito de modelos de linguagem grandes e processamento de linguagem natural oferecido pela Hugging Face, cobrindo a pilha de tecnologia completa de Transformers, processamento de dados, ajuste fino de modelos, etc.
Descrição Detalhada do Curso de LLM da Hugging Face
Visão Geral do Curso
Este é um curso de Modelos de Linguagem Grandes (LLM) e Processamento de Linguagem Natural (NLP) oferecido pela Hugging Face, focado na aprendizagem e prática utilizando as bibliotecas do ecossistema Hugging Face.
Características do Curso
- Totalmente Gratuito: Sem anúncios, sem conteúdo pago
- Orientado à Prática: Combina teoria e prática, fornecendo exemplos de código
- Espírito Open Source: Todo o conteúdo é lançado sob a Licença Apache 2
- Suporte Multilíngue: Suporta traduções em várias versões de idiomas
- Impulsionado pela Comunidade: Suporte e discussões ativas da comunidade
Estrutura do Curso
Capítulos 1-4: Fundamentos da Biblioteca 🤗 Transformers
- Como os modelos Transformer funcionam
- Como usar modelos do Hugging Face Hub
- Técnicas de fine-tuning de modelos
- Compartilhando resultados no Hub
Capítulos 5-8: Processamento de Dados e Tarefas Clássicas de NLP
- Fundamentos de 🤗 Datasets e 🤗 Tokenizers
- Processamento de tarefas clássicas de NLP
- Aprofundamento em tecnologias LLM
- Soluções para desafios comuns de processamento de linguagem
Capítulo 9: Implantação e Demonstração de Modelos
- Construindo e compartilhando demonstrações de modelos
- Exibindo aplicações no 🤗 Hub
- Técnicas de visualização de modelos
Capítulos 10-12: Tópicos Avançados de LLM
- Técnicas avançadas de fine-tuning
- Curadoria de conjuntos de dados de alta qualidade
- Construção de modelos de inferência
- Últimos desenvolvimentos em LLM
Pilha Tecnológica Principal
Bibliotecas Principais
- 🤗 Transformers: Biblioteca central de modelos
- 🤗 Datasets: Biblioteca de processamento de dados
- 🤗 Tokenizers: Biblioteca de tokenizadores
- 🤗 Accelerate: Biblioteca para acelerar o treinamento
- Hugging Face Hub: Centro de modelos e conjuntos de dados
Frameworks Suportados
- PyTorch
- TensorFlow
- JAX
Configuração do Ambiente de Estudo
Método 1: Google Colab
# Instalar a versão básica
!pip install transformers
# Instalar a versão completa (recomendado)
!pip install transformers[sentencepiece]
Método 2: Ambiente Virtual Python
# Criar diretório do projeto
mkdir ~/transformers-course
cd ~/transformers-course
# Criar ambiente virtual
python -m venv .env
# Ativar ambiente virtual
source .env/bin/activate
# Instalar dependências
pip install "transformers[sentencepiece]"
Requisitos do Curso
Requisitos Técnicos
- Fundamentos de Python: É necessário um bom conhecimento de programação Python
- Fundamentos de Deep Learning: Recomenda-se ter concluído um curso introdutório de deep learning
- Conhecimento de Frameworks: Não é exigida experiência com PyTorch ou TensorFlow, mas algum conhecimento será útil
Cursos Pré-requisitos Recomendados
- fast.ai's Practical Deep Learning for Coders
- Cursos relacionados da DeepLearning.AI
Equipe de Autores do Curso
Autores Principais
- Abubakar Abid: Fundador do Gradio, Doutor por Stanford
- Ben Burtenshaw: Doutor em NLP, pesquisa em geração de histórias infantis
- Matthew Carrigan: Pesquisador de pós-doutorado no Trinity College Dublin
- Lysandre Debut: Desenvolvedor principal de 🤗 Transformers
- Sylvain Gugger: Coautor de "Deep Learning for Coders"
- Lewis Tunstall: Coautor de "Natural Language Processing with Transformers"
- Leandro von Werra: Coautor de "Natural Language Processing with Transformers"
Cronograma de Estudo
- Duração por Capítulo: 1 semana
- Tempo de Estudo Semanal: 6-8 horas
- Progresso Geral: Pode ser ajustado de acordo com o ritmo individual
Recursos e Suporte
Recursos de Estudo
- Notebooks Interativos: Google Colab e Amazon SageMaker Studio Lab
- Repositório de Código: huggingface/notebooks
- Fórum do Curso: Hugging Face forums
Suporte Multilíngue
O curso está disponível nas seguintes versões de idiomas:
- Chinês (Simplificado)
- Francês
- Alemão
- Espanhol
- Japonês
- Coreano
- Vietnamita
- E vários outros idiomas
Projetos Práticos
Tipos de Projeto
- Classificação de Texto
- Geração de Texto
- Sistemas de Perguntas e Respostas
- Análise de Sentimento
- Reconhecimento de Entidades Nomeadas
- Tradução Automática
- Sumarização de Texto
Plataformas de Prática
- Google Colab (recomendado para iniciantes)
- Ambiente Local
- Hugging Face Spaces
Certificados e Certificação
- Atualmente, não há certificação formal
- A Hugging Face está desenvolvendo um programa de certificação
- Após a conclusão do curso, um portfólio de projetos pode ser obtido
Sugestões para Estudo Adicional
Após a conclusão deste curso, recomenda-se continuar estudando:
- DeepLearning.AI's Natural Language Processing Specialization
- Modelos tradicionais de NLP: Naive Bayes, LSTM, etc.
- Pesquisa em arquiteturas Transformer mais avançadas
Valor do Curso
Este curso é especialmente adequado para:
- Engenheiros que desejam iniciar o desenvolvimento de LLM
- Desenvolvedores que precisam integrar capacidades de IA em seus produtos
- Pesquisadores que desejam entender as últimas tecnologias de NLP
- Equipes que desejam construir aplicações de IA usando ferramentas open source
Através deste curso, os alunos adquirirão um conjunto completo de habilidades de desenvolvimento de LLM, desde conceitos básicos até aplicações práticas.