huggingface/peftView GitHub Homepage for Latest Official Releases
🤗 PEFT是Hugging Face開發的先進參數高效微調庫,通過LoRA、AdaLoRA等技術實現大模型低成本微調
Apache-2.0Pythonpefthuggingface 19.3k Last Updated: August 08, 2025
🤗 PEFT - 參數高效微調庫詳細介紹
項目概述
PEFT (Parameter-Efficient Fine-Tuning) 是由Hugging Face開發的一個先進的參數高效微調庫。該項目旨在解決大型預訓練模型微調過程中計算成本高昂和儲存需求巨大的問題。
GitHub地址: https://github.com/huggingface/peft
核心價值與優勢
1. 成本效益
- 極大降低計算成本:相比傳統全參數微調,PEFT方法只需訓練模型參數的很小一部分
- 顯著減少儲存需求:微調後的模型檢查點檔案通常只有幾MB,而不是幾GB
- 記憶體使用優化:在相同硬體條件下能夠處理更大的模型
2. 性能保持
- 媲美全參數微調:在多數任務上達到與完全微調相當的性能表現
- 避免災難性遺忘:保護基礎模型的原有知識,減少過擬合風險
3. 靈活性與便利性
- 多任務適配:可以為不同任務訓練多個輕量級適配器
- 無縫集成:與Transformers、Diffusers、Accelerate等生態系統完美集成
支持的微調方法
主要PEFT技術
- LoRA (Low-Rank Adaptation)
- 最流行的參數高效微調方法
- 通過低秩矩陣分解大幅減少可訓練參數
- 典型場景下只需訓練0.1%-1%的原始參數
- AdaLoRA
- LoRA的改進版本
- 自適應調整秩大小,進一步優化效率
- Prefix Tuning
- 在輸入序列前添加可學習的前綴
- 適用於生成任務
- P-Tuning v2
- 改進的提示調優方法
- 在多個層添加可學習參數
- IA³ (Infused Adapter by Inhibiting and Amplifying Inner Activations)
- 通過抑制和放大內部激活來適配模型
實際應用效果
記憶體使用對比 (A100 80GB GPU)
模型 | 全參數微調 | PEFT-LoRA | PEFT-LoRA + DeepSpeed CPU卸載 |
---|---|---|---|
T0_3B (30億參數) | 47.14GB GPU / 2.96GB CPU | 14.4GB GPU / 2.96GB CPU | 9.8GB GPU / 17.8GB CPU |
mt0-xxl (120億參數) | 記憶體溢出 | 56GB GPU / 3GB CPU | 22GB GPU / 52GB CPU |
bloomz-7b1 (70億參數) | 記憶體溢出 | 32GB GPU / 3.8GB CPU | 18.1GB GPU / 35GB CPU |
性能表現
在Twitter投訴分類任務上的準確率對比:
- 人類基線:89.7%
- Flan-T5:89.2%
- LoRA-T0-3B:86.3%
安裝與快速開始
安裝
pip install peft
基礎使用示例
from transformers import AutoModelForSeq2SeqLM
from peft import get_peft_config, get_peft_model, LoraConfig, TaskType
# 配置PEFT
model_name_or_path = "bigscience/mt0-large"
peft_config = LoraConfig(
task_type=TaskType.SEQ_2_SEQ_LM,
inference_mode=False,
r=8,
lora_alpha=32,
lora_dropout=0.1
)
# 加載和包裝模型
model = AutoModelForSeq2SeqLM.from_pretrained(model_name_or_path)
model = get_peft_model(model, peft_config)
# 查看可訓練參數
model.print_trainable_parameters()
# 輸出:trainable params: 2359296 || all params: 1231940608 || trainable%: 0.19
推理使用
from peft import AutoPeftModelForCausalLM
from transformers import AutoTokenizer
# 加載微調後的模型
model = AutoPeftModelForCausalLM.from_pretrained("ybelkada/opt-350m-lora").to("cuda")
tokenizer = AutoTokenizer.from_pretrained("facebook/opt-350m")
# 進行推理
model.eval()
inputs = tokenizer("你的輸入文本", return_tensors="pt")
outputs = model.generate(input_ids=inputs["input_ids"].to("cuda"), max_new_tokens=50)
生態系統集成
1. Transformers集成
- 支持各種預訓練模型架構
- 無縫的訓練和推理流程
- 自動模型配置和優化
2. Diffusers集成
- 支持擴散模型的高效微調
- 適用於圖像生成、編輯等任務
- 顯著降低訓練記憶體需求
3. Accelerate集成
- 支持分佈式訓練
- 多GPU、TPU訓練優化
- 消費級硬體友好
4. TRL (Transformer Reinforcement Learning)集成
- 支持RLHF (人類反饋強化學習)
- DPO (直接偏好優化)
- 大模型對齊訓練
應用場景
1. 大語言模型微調
- 指令微調
- 對話系統優化
- 特定領域適配
2. 多模態模型
- 視覺-語言模型微調
- 音訊處理模型適配
3. 擴散模型
- Stable Diffusion個性化
- DreamBooth訓練
- 風格轉換
4. 強化學習
- 策略模型微調
- 獎勵模型訓練
- 人類偏好對齊
技術優勢與創新點
1. 參數效率
- 只訓練0.1%-1%的原始參數
- 保持95%以上的性能
- 檢查點檔案縮小至原來的1/100
2. 記憶體優化
- 大幅降低GPU記憶體需求
- 支持消費級硬體訓練大模型
- 梯度檢查點進一步優化記憶體
3. 量化兼容
- 與8bit、4bit量化完美結合
- QLoRA技術支持
- 進一步降低硬體門檻
4. 模塊化設計
- 支持多種PEFT方法
- 靈活的配置選項
- 易於擴展新方法
社區與生態
官方資源
- 文檔:https://huggingface.co/docs/peft
- 模型庫:https://huggingface.co/PEFT
- 示例筆記本:涵蓋各種應用場景
- 博客教程:詳細的技術說明和最佳實踐
總結
🤗 PEFT是一個革命性的參數高效微調庫,它不僅解決了大模型微調的成本問題,還保持了優秀的性能表現。無論是研究人員還是工業界開發者,PEFT都提供了一個經濟高效的大模型定制化解決方案,推動了AI技術的民主化進程。