Microsoft LoRA は、マイクロソフトがオープンソースで公開している Python ライブラリで、"LoRA: Low-Rank Adaptation of Large Language Models"(大規模言語モデルの低ランク適応)技術を実装しています。このプロジェクトは、大規模言語モデルの効率的なファインチューニングに革新的なソリューションを提供します。
プロジェクトアドレス: https://github.com/microsoft/LoRA
論文アドレス: https://arxiv.org/abs/2106.09685
LoRA(Low-Rank Adaptation)は、パラメータ効率の高いファインチューニング手法であり、その核心的な考え方は以下の通りです。
GLUE ベンチマークテストにおいて、LoRA は優れた性能を発揮しました。
モデル | 訓練パラメータ数 | MNLI 精度 | SST-2 精度 | MRPC 精度 |
---|---|---|---|---|
RoBERTa Base フルファインチューニング | 125M | 87.6 | 94.8 | 90.2 |
RoBERTa Base LoRA | 0.8M | 87.6±.1 | 95.1±.2 | 89.7±.7 |
DeBERTa XXL フルファインチューニング | 1.5B | 91.1 | 96.8 | 92.9 |
DeBERTa XXL LoRA | 4.7M | 91.9±.1 | 96.9±.2 | 92.6±.6 |
E2E、DART、WebNLG などのテキスト生成タスクにおいても、LoRA は同様に優れた性能を発揮します。
方法 | 訓練パラメータ | E2E (BLEU) | DART (BLEU) | WebNLG (BLEU) |
---|---|---|---|---|
GPT-2 M フルファインチューニング | 354.92M | 68.2 | 46.0 | 47.6 |
GPT-2 M LoRA | 0.35M | 70.4±.1 | 47.1±.2 | 55.3±.2 |
microsoft/LoRA/
├── loralib/ # コアライブラリのソースコード
├── examples/
│ ├── NLG/ # GPT-2 自然言語生成の例
│ └── NLU/ # RoBERTa/DeBERTa 自然言語理解の例
├── README.md
└── setup.py
pip install loralib
# またはソースコードからインストール
pip install git+https://github.com/microsoft/LoRA
# ===== 変更前 =====
# layer = nn.Linear(in_features, out_features)
# ===== 変更後 =====
import loralib as lora
layer = lora.Linear(in_features, out_features, r=16)
import loralib as lora
model = BigModel()
# "lora_" を含むパラメータのみを訓練可能に設定
lora.mark_only_lora_as_trainable(model)
# 訓練ループ
for batch in dataloader:
# 通常の訓練フロー
pass
# LoRA パラメータの保存
torch.save(lora.lora_state_dict(model), 'lora_checkpoint.pt')
# 事前学習済みモデルのロード
model.load_state_dict(torch.load('pretrained.pt'), strict=False)
# LoRA パラメータのロード
model.load_state_dict(torch.load('lora_checkpoint.pt'), strict=False)
現在、LoRA ライブラリは以下の層タイプをサポートしています。
nn.Linear
→ lora.Linear
nn.Embedding
→ lora.Embedding
nn.Conv2d
→ lora.Conv2d
lora.MergedLinear
(QKV 投影などの結合線形層用)# QKV 投影などのシナリオ向け
qkv_proj = lora.MergedLinear(
d_model, 3*d_model,
r=8,
enable_lora=[True, False, True] # Q と V にのみ LoRA を適用
)
# LoRA 関連のバイアスを訓練
lora.mark_only_lora_as_trainable(model, bias='lora_only')
# すべてのバイアスを訓練
lora.mark_only_lora_as_trainable(model, bias='all')
# 評価モード:重みをマージし、推論遅延を解消
model.eval()
# 訓練モード:分離状態に戻す
model.train()
Microsoft LoRA プロジェクトは、大規模言語モデルの効率的なファインチューニングに画期的なソリューションを提供します。巧妙な低ランク適応技術により、計算コストとストレージコストを大幅に削減しながら、優れたモデル性能を維持します。このプロジェクトは、重要な学術的価値を持つだけでなく、実際の産業応用にも実行可能な技術的経路を提供し、パラメータ効率の高いファインチューニング分野における画期的な成果です。