Home
Login

ノーコード、ローコードで大規模言語モデルの微調整とデプロイメントを可能にするフレームワーク。100以上のLLM/VLMの統一的かつ効率的な微調整をサポート。

Apache-2.0Python 52.6khiyouga Last Updated: 2025-06-18

💡 LLaMA‑Factory プロジェクト解説

一、プロジェクト概要

LLaMA‑Factory は、大規模言語モデル(LLM/VLM)の微調整、学習、デプロイに特化したオープンソースプラットフォームです。Yaowei Zheng らによって ACL 2024 で発表され、arXiv に収録されています ([gitee.com][1])。このプロジェクトは以下の特徴を備えています。

  • 100 以上のモデルをサポート:LLaMA、LLaVA、Mistral、Qwen、ChatGLM、Phi など、主要なモデルや新しいモデルを網羅。
  • ノーコード + ローコードインターフェース:CLI と Web UI(LLaMABoard)モードで、一般的な学習フローをカバーし、技術的なハードルを極限まで低減。
  • 多様な効率的な微調整手法を統合:LoRA、QLoRA(2/4/8 bit)、凍結、16-bit 全パラメータ、FlashAttention‑2、Unsloth、RoPE scaling などをサポート。
  • 豊富なチューニングアルゴリズム:GaLore、BAdam、DoRA、LongLoRA、LLaMA Pro、Mixture‑of‑Depths、LoRA+、LoftQ、PiSSA など。
  • 多様な学習方法:事前学習、教師あり微調整(SFT)、報酬モデリング(RM)、PPO/DPO/KTO/ORPO などの強化学習方法。
  • 多様な実験監視ツール:LlamaBoard、TensorBoard、Wandb、MLflow、SwanLab などをサポート。
  • 推論とデプロイの互換性:OpenAI API スタイルでのデプロイ、vLLM 並行推論、Gradio UI などの豊富な推論オプションをサポート。

二、コア機能のハイライト

1. モデルサポート範囲が広い

LLaMA、Phi から Qwen2-VL、Gemma、DeepSeek など、様々なサイズとアーキテクチャを含む 100 種類以上のモデルをカバー。

2. 効率的な微調整技術

  • LoRA / QLoRA:低ビット量子化適応型微調整をサポート。4-bit LoRA は従来の方法よりも推論速度が速く、メモリ消費量が少ない。
  • 最適化演算子:FlashAttention-2、Unsloth は学習速度とメモリ利用率を向上。
  • RoPE Scaling:コンテキスト長を拡張する能力。

3. 学習と強化学習

事前学習、SFT から、報酬モデル学習、そして PPO/DPO 強化学習まで、一般的な学習フローを統合。

4. 可視化監視

Web UI(LLaMABoard)、TensorBoard、Wandb などを通じて、学習の進捗状況、指標、ログをリアルタイムで確認。

5. 推論とデプロイ能力

微調整後のモデルを OpenAI API 形式でエクスポートし、並行推論(vLLM)や Gradio フロントエンドの構築を実現。


三、使用フロー & クイックスタート

インストール / 起動

pip install llama-factory   # または GitHub からクローンしてインストール
  • CLI 方式:

    llama-factory train \
      --model llama-13b \
      --dataset mydata \
      --finetuning_type lora \
      ## その他のパラメータは公式ドキュメントを参照
    
  • Web UI 方式:

    CUDA_VISIBLE_DEVICES=0 python src/train_web.py
    

    LLaMABoard を起動し、学習ハイパーパラメータを一元的に設定


データ準備

プロジェクトには 60 以上のデータセット(data ディレクトリ)が付属しており、カスタム JSON ファイルもサポートし、dataset_info.json で一元管理。


監視と評価

学習時に TensorBoard、Wandb の表示を自動的にサポート。MLflow、SwanLab などの監視バックエンドにも接続可能。


推論とデプロイ

学習完了後、CLI または export スクリプトを通じてデプロイパッケージを直接生成し、並行推論と Gradio 表示をサポート。

五、まとめ

LLaMA‑Factory は、機能が充実し、使いやすく、技術的に高度な LLM 微調整フレームワークです。研究者であろうとエンジニアであろうと、複雑なコードを書くことなく、大量のオープンソースモデルを迅速にカスタマイズ、学習、デプロイできます。LLM 微調整分野への参入に最適なツールです。