LLaMA‑Factory é uma plataforma de código aberto focada no ajuste fino, treinamento e implantação de modelos de linguagem grandes (LLM/VLM). Publicado por Yaowei Zheng et al. na ACL 2024 e incluído no arXiv ([gitee.com][1]). Este projeto destaca as seguintes características:
Cobre mais de cem modelos, incluindo vários tamanhos e arquiteturas, desde LLaMA, Phi até Qwen2-VL, Gemma, DeepSeek, etc.
Integra fluxos de treinamento comuns: desde pré-treinamento, SFT, até treinamento de modelo de recompensa e, em seguida, aprendizado por reforço PPO/DPO.
Visualize o progresso do treinamento, métricas e logs em tempo real através do Web UI (LLaMABoard), TensorBoard, Wandb, etc.
Suporta a exportação do modelo ajustado para o formato da API OpenAI e realiza inferência simultânea (vLLM) ou constrói um frontend Gradio.
pip install llama-factory # Ou instale clonando do GitHub
Modo CLI:
llama-factory train \
--model llama-13b \
--dataset mydata \
--finetuning_type lora \
## Mais parâmetros consulte a documentação oficial
Modo Web UI:
CUDA_VISIBLE_DEVICES=0 python src/train_web.py
Inicie o LLaMABoard, configure os hiperparâmetros de treinamento em um só lugar
O projeto vem com mais de 60 conjuntos de dados (diretório data) e também suporta arquivos JSON personalizados, gerenciando uniformemente dataset_info.json.
O treinamento suporta automaticamente a exibição do TensorBoard, Wandb; também pode acessar backends de monitoramento como MLflow, SwanLab.
Após o treinamento, gere diretamente o pacote de implantação através do CLI ou script de exportação, suportando inferência simultânea e exibição Gradio.
LLaMA‑Factory é uma estrutura de ajuste fino de LLM completa, fácil de usar e tecnologicamente avançada. Seja você um pesquisador ou um engenheiro, você pode personalizar, treinar e implantar rapidamente uma grande quantidade de modelos de código aberto, sem a necessidade de escrever código complexo, sendo uma ferramenta poderosa para entrar no campo do ajuste fino de LLM.