LLaMA‑Factory 是一个开源的、专注于大型语言模型(LLM/VLM)微调、训练与部署的平台。由 Yaowei Zheng 等人在 ACL 2024 上发布,并收录于 arXiv ([gitee.com][1])。该项目凸显以下特色:
覆盖百余种模型,包含各种尺寸与架构,从 LLaMA、Phi 到 Qwen2-VL、Gemma、DeepSeek 等。
整合了常见训练流程:从预训练、SFT,到奖励模型训练,再到 PPO/DPO 强化学习。
通过 Web UI(LLaMABoard)、TensorBoard、Wandb 等实时查看训练进度、指标和日志。
支持导出微调后的模型为 OpenAI API 格式,并实现并发推理(vLLM)或搭建 Gradio 前端。
pip install llama-factory # 或从 GitHub 克隆安装
CLI 方式:
llama-factory train \
--model llama-13b \
--dataset mydata \
--finetuning_type lora \
## 更多参数参考官方文档
Web UI 方式:
CUDA_VISIBLE_DEVICES=0 python src/train_web.py
启动 LLaMABoard,一站式设置训练超参
项目自带 60+ 数据集(data 目录),也支持自定义 JSON 文件,统一管理 dataset_info.json 。
训练时自动支持 TensorBoard、Wandb 展示;也可接入 MLflow、SwanLab 等监控后台。
训练完后通过 CLI 或 export 脚本直接生成部署包,支持并发推理及 Gradio 展示 。
LLaMA‑Factory 是一个功能齐全、易上手、技术先进的 LLM 微调框架。无论你是研究人员,还是工程师,都能快速地对海量开源模型进行定制、训练、部署,无需编写复杂代码,是进入 LLM 微调领域的利器。