LLaMA‑Factory 是一個開源的、專注於大型語言模型(LLM/VLM)微調、訓練與部署的平台。由 Yaowei Zheng 等人在 ACL 2024 上發布,並收錄於 arXiv ([gitee.com][1])。該項目凸顯以下特色:
覆蓋百餘種模型,包含各種尺寸與架構,從 LLaMA、Phi 到 Qwen2-VL、Gemma、DeepSeek 等。
整合了常見訓練流程:從預訓練、SFT,到獎勵模型訓練,再到 PPO/DPO 強化學習。
通過 Web UI(LLaMABoard)、TensorBoard、Wandb 等實時查看訓練進度、指標和日誌。
支持導出微調後的模型為 OpenAI API 格式,並實現並發推理(vLLM)或搭建 Gradio 前端。
pip install llama-factory # 或從 GitHub 克隆安裝
CLI 方式:
llama-factory train \
--model llama-13b \
--dataset mydata \
--finetuning_type lora \
## 更多參數參考官方文檔
Web UI 方式:
CUDA_VISIBLE_DEVICES=0 python src/train_web.py
啟動 LLaMABoard,一站式設置訓練超參
項目自帶 60+ 數據集(data 目錄),也支持自定義 JSON 文件,統一管理 dataset_info.json 。
訓練時自動支持 TensorBoard、Wandb 展示;也可接入 MLflow、SwanLab 等監控後台。
訓練完後通過 CLI 或 export 腳本直接生成部署包,支持並發推理及 Gradio 展示 。
LLaMA‑Factory 是一個功能齊全、易上手、技術先進的 LLM 微調框架。無論你是研究人員,還是工程師,都能快速地對海量開源模型進行定制、訓練、部署,無需編寫複雜代碼,是進入 LLM 微調領域的利器。