Home
Login

Quarta Etapa: Aprendizado Profundo e Redes Neurais

Curso gratuito de modelos de linguagem grandes e processamento de linguagem natural oferecido pela Hugging Face, cobrindo a pilha de tecnologia completa de Transformers, processamento de dados, ajuste fino de modelos, etc.

LLMNLPTransformersWebSiteTextFreeMulti-Language

Descrição Detalhada do Curso de LLM da Hugging Face

Visão Geral do Curso

Este é um curso de Modelos de Linguagem Grandes (LLM) e Processamento de Linguagem Natural (NLP) oferecido pela Hugging Face, focado na aprendizagem e prática utilizando as bibliotecas do ecossistema Hugging Face.

Características do Curso

  • Totalmente Gratuito: Sem anúncios, sem conteúdo pago
  • Orientado à Prática: Combina teoria e prática, fornecendo exemplos de código
  • Espírito Open Source: Todo o conteúdo é lançado sob a Licença Apache 2
  • Suporte Multilíngue: Suporta traduções em várias versões de idiomas
  • Impulsionado pela Comunidade: Suporte e discussões ativas da comunidade

Estrutura do Curso

Capítulos 1-4: Fundamentos da Biblioteca 🤗 Transformers

  • Como os modelos Transformer funcionam
  • Como usar modelos do Hugging Face Hub
  • Técnicas de fine-tuning de modelos
  • Compartilhando resultados no Hub

Capítulos 5-8: Processamento de Dados e Tarefas Clássicas de NLP

  • Fundamentos de 🤗 Datasets e 🤗 Tokenizers
  • Processamento de tarefas clássicas de NLP
  • Aprofundamento em tecnologias LLM
  • Soluções para desafios comuns de processamento de linguagem

Capítulo 9: Implantação e Demonstração de Modelos

  • Construindo e compartilhando demonstrações de modelos
  • Exibindo aplicações no 🤗 Hub
  • Técnicas de visualização de modelos

Capítulos 10-12: Tópicos Avançados de LLM

  • Técnicas avançadas de fine-tuning
  • Curadoria de conjuntos de dados de alta qualidade
  • Construção de modelos de inferência
  • Últimos desenvolvimentos em LLM

Pilha Tecnológica Principal

Bibliotecas Principais

  • 🤗 Transformers: Biblioteca central de modelos
  • 🤗 Datasets: Biblioteca de processamento de dados
  • 🤗 Tokenizers: Biblioteca de tokenizadores
  • 🤗 Accelerate: Biblioteca para acelerar o treinamento
  • Hugging Face Hub: Centro de modelos e conjuntos de dados

Frameworks Suportados

  • PyTorch
  • TensorFlow
  • JAX

Configuração do Ambiente de Estudo

Método 1: Google Colab

# Instalar a versão básica
!pip install transformers

# Instalar a versão completa (recomendado)
!pip install transformers[sentencepiece]

Método 2: Ambiente Virtual Python

# Criar diretório do projeto
mkdir ~/transformers-course
cd ~/transformers-course

# Criar ambiente virtual
python -m venv .env

# Ativar ambiente virtual
source .env/bin/activate

# Instalar dependências
pip install "transformers[sentencepiece]"

Requisitos do Curso

Requisitos Técnicos

  • Fundamentos de Python: É necessário um bom conhecimento de programação Python
  • Fundamentos de Deep Learning: Recomenda-se ter concluído um curso introdutório de deep learning
  • Conhecimento de Frameworks: Não é exigida experiência com PyTorch ou TensorFlow, mas algum conhecimento será útil

Cursos Pré-requisitos Recomendados

Equipe de Autores do Curso

Autores Principais

  • Abubakar Abid: Fundador do Gradio, Doutor por Stanford
  • Ben Burtenshaw: Doutor em NLP, pesquisa em geração de histórias infantis
  • Matthew Carrigan: Pesquisador de pós-doutorado no Trinity College Dublin
  • Lysandre Debut: Desenvolvedor principal de 🤗 Transformers
  • Sylvain Gugger: Coautor de "Deep Learning for Coders"
  • Lewis Tunstall: Coautor de "Natural Language Processing with Transformers"
  • Leandro von Werra: Coautor de "Natural Language Processing with Transformers"

Cronograma de Estudo

  • Duração por Capítulo: 1 semana
  • Tempo de Estudo Semanal: 6-8 horas
  • Progresso Geral: Pode ser ajustado de acordo com o ritmo individual

Recursos e Suporte

Recursos de Estudo

Suporte Multilíngue

O curso está disponível nas seguintes versões de idiomas:

  • Chinês (Simplificado)
  • Francês
  • Alemão
  • Espanhol
  • Japonês
  • Coreano
  • Vietnamita
  • E vários outros idiomas

Projetos Práticos

Tipos de Projeto

  • Classificação de Texto
  • Geração de Texto
  • Sistemas de Perguntas e Respostas
  • Análise de Sentimento
  • Reconhecimento de Entidades Nomeadas
  • Tradução Automática
  • Sumarização de Texto

Plataformas de Prática

  • Google Colab (recomendado para iniciantes)
  • Ambiente Local
  • Hugging Face Spaces

Certificados e Certificação

  • Atualmente, não há certificação formal
  • A Hugging Face está desenvolvendo um programa de certificação
  • Após a conclusão do curso, um portfólio de projetos pode ser obtido

Sugestões para Estudo Adicional

Após a conclusão deste curso, recomenda-se continuar estudando:

Valor do Curso

Este curso é especialmente adequado para:

  • Engenheiros que desejam iniciar o desenvolvimento de LLM
  • Desenvolvedores que precisam integrar capacidades de IA em seus produtos
  • Pesquisadores que desejam entender as últimas tecnologias de NLP
  • Equipes que desejam construir aplicações de IA usando ferramentas open source

Através deste curso, os alunos adquirirão um conjunto completo de habilidades de desenvolvimento de LLM, desde conceitos básicos até aplicações práticas.