QLoRA(Quantized Low Rank Adaptation)是一个开源的高效大语言模型微调框架,由华盛顿大学NLP团队开发。该项目的核心目标是通过创新的量化技术和参数高效微调方法,显著降低大语言模型训练的硬件门槛,让更多研究者能够参与到大模型研究中来。
项目地址: https://github.com/artidoro/qlora
# 安装依赖
pip install -U -r requirements.txt
# 基础微调命令
python qlora.py --model_name_or_path <模型路径>
# 大模型微调(推荐降低学习率)
python qlora.py --learning_rate 0.0001 --model_name_or_path <模型路径>
# 量化配置
quantization_config = BitsAndBytesConfig(
load_in_4bit=True,
bnb_4bit_compute_dtype=torch.bfloat16,
bnb_4bit_use_double_quant=True,
bnb_4bit_quant_type='nf4'
)
项目发布了多个规模的Guanaco模型:
QLoRA项目代表了大语言模型微调技术的重要突破,通过创新的量化技术和参数高效微调方法,显著降低了大模型研究和应用的门槛。该项目不仅在技术上具有重要意义,更在推动大语言模型的民主化应用方面发挥了关键作用。
对于研究者和开发者来说,QLoRA提供了一个强大而灵活的工具,使得在有限的硬件资源下进行高质量的大模型微调成为可能。随着技术的不断完善和社区的持续贡献,QLoRA有望成为大语言模型微调领域的标准工具。