LLaMA‑Factory est une plateforme open source axée sur le fine-tuning, l'entraînement et le déploiement de grands modèles de langage (LLM/VLM). Publié par Yaowei Zheng et al. à l'ACL 2024 et référencé sur arXiv ([gitee.com][1]). Ce projet se distingue par les caractéristiques suivantes :
Couvre plus d'une centaine de modèles, incluant diverses tailles et architectures, de LLaMA, Phi à Qwen2-VL, Gemma, DeepSeek, etc.
Intègre les flux d'entraînement courants : du pré-entraînement, SFT, à l'entraînement du modèle de récompense, puis à l'apprentissage par renforcement PPO/DPO.
Visualisation en temps réel de la progression de l'entraînement, des indicateurs et des journaux via Web UI (LLaMABoard), TensorBoard, Wandb, etc.
Prise en charge de l'exportation du modèle fine-tuné au format OpenAI API, et réalisation d'une inférence concurrente (vLLM) ou de la construction d'un frontend Gradio.
pip install llama-factory # Ou installation à partir du clonage GitHub
Mode CLI :
llama-factory train \
--model llama-13b \
--dataset mydata \
--finetuning_type lora \
## Plus de paramètres dans la documentation officielle
Mode Web UI :
CUDA_VISIBLE_DEVICES=0 python src/train_web.py
Lancer LLaMABoard, configuration centralisée des hyperparamètres d'entraînement
Le projet est livré avec plus de 60 ensembles de données (répertoire data), et prend également en charge les fichiers JSON personnalisés, gestion unifiée de dataset_info.json.
Pendant l'entraînement, la prise en charge de TensorBoard, Wandb est automatique ; l'accès aux backends de surveillance MLflow, SwanLab, etc. est également possible.
Une fois l'entraînement terminé, générer directement un package de déploiement via CLI ou un script d'exportation, prise en charge de l'inférence concurrente et de l'affichage Gradio.
LLaMA‑Factory est un framework de fine-tuning LLM complet, facile à utiliser et technologiquement avancé. Que vous soyez chercheur ou ingénieur, vous pouvez rapidement personnaliser, entraîner et déployer des modèles open source massifs, sans écrire de code complexe, ce qui en fait un outil puissant pour entrer dans le domaine du fine-tuning LLM.