LLaMA‑Factory は、大規模言語モデル(LLM/VLM)の微調整、学習、デプロイに特化したオープンソースプラットフォームです。Yaowei Zheng らによって ACL 2024 で発表され、arXiv に収録されています ([gitee.com][1])。このプロジェクトは以下の特徴を備えています。
LLaMA、Phi から Qwen2-VL、Gemma、DeepSeek など、様々なサイズとアーキテクチャを含む 100 種類以上のモデルをカバー。
事前学習、SFT から、報酬モデル学習、そして PPO/DPO 強化学習まで、一般的な学習フローを統合。
Web UI(LLaMABoard)、TensorBoard、Wandb などを通じて、学習の進捗状況、指標、ログをリアルタイムで確認。
微調整後のモデルを OpenAI API 形式でエクスポートし、並行推論(vLLM)や Gradio フロントエンドの構築を実現。
pip install llama-factory # または GitHub からクローンしてインストール
CLI 方式:
llama-factory train \
--model llama-13b \
--dataset mydata \
--finetuning_type lora \
## その他のパラメータは公式ドキュメントを参照
Web UI 方式:
CUDA_VISIBLE_DEVICES=0 python src/train_web.py
LLaMABoard を起動し、学習ハイパーパラメータを一元的に設定
プロジェクトには 60 以上のデータセット(data ディレクトリ)が付属しており、カスタム JSON ファイルもサポートし、dataset_info.json で一元管理。
学習時に TensorBoard、Wandb の表示を自動的にサポート。MLflow、SwanLab などの監視バックエンドにも接続可能。
学習完了後、CLI または export スクリプトを通じてデプロイパッケージを直接生成し、並行推論と Gradio 表示をサポート。
LLaMA‑Factory は、機能が充実し、使いやすく、技術的に高度な LLM 微調整フレームワークです。研究者であろうとエンジニアであろうと、複雑なコードを書くことなく、大量のオープンソースモデルを迅速にカスタマイズ、学習、デプロイできます。LLM 微調整分野への参入に最適なツールです。