QLoRA(Quantized Low Rank Adaptation)是一個開源的高效大語言模型微調框架,由華盛頓大學 NLP 團隊開發。該項目的核心目標是通過創新的量化技術和參數高效微調方法,顯著降低大語言模型訓練的硬體門檻,讓更多研究者能夠參與到大模型研究中來。
項目地址: https://github.com/artidoro/qlora
# 安裝依賴
pip install -U -r requirements.txt
# 基礎微調命令
python qlora.py --model_name_or_path <模型路徑>
# 大模型微調(推薦降低學習率)
python qlora.py --learning_rate 0.0001 --model_name_or_path <模型路徑>
# 量化配置
quantization_config = BitsAndBytesConfig(
load_in_4bit=True,
bnb_4bit_compute_dtype=torch.bfloat16,
bnb_4bit_use_double_quant=True,
bnb_4bit_quant_type='nf4'
)
項目發布了多個規模的 Guanaco 模型:
QLoRA 項目代表了大語言模型微調技術的重要突破,通過創新的量化技術和參數高效微調方法,顯著降低了大模型研究和應用的門檻。該項目不僅在技術上具有重要意義,更在推動大語言模型的民主化應用方面發揮了關鍵作用。
對於研究者和開發者來說,QLoRA 提供了一個強大而靈活的工具,使得在有限的硬體資源下進行高質量的大模型微調成為可能。隨著技術的不斷完善和社區的持續貢獻,QLoRA 有望成為大語言模型微調領域的標準工具。