LLaMA‑Factory هو منصة مفتوحة المصدر تركز على الضبط الدقيق والتدريب والنشر للنماذج اللغوية الكبيرة (LLM/VLM). تم نشره بواسطة Yaowei Zheng وآخرون في ACL 2024، وتم تضمينه في arXiv ([gitee.com][1]). يبرز هذا المشروع الميزات التالية:
يغطي أكثر من مائة نموذج، بما في ذلك الأحجام والبنى المختلفة، من LLaMA و Phi إلى Qwen2-VL و Gemma و DeepSeek وما إلى ذلك.
يدمج عمليات التدريب الشائعة: من التدريب المسبق، و SFT، إلى تدريب نموذج المكافآت، ثم إلى التعلم المعزز PPO/DPO.
من خلال Web UI (LLaMABoard) و TensorBoard و Wandb وما إلى ذلك، يمكنك عرض تقدم التدريب والمقاييس والسجلات في الوقت الفعلي.
يدعم تصدير النموذج المضبوط بدقة إلى تنسيق OpenAI API، وتنفيذ الاستدلال المتزامن (vLLM) أو إنشاء واجهة أمامية Gradio.
pip install llama-factory # أو التثبيت من خلال استنساخ من GitHub
طريقة CLI:
llama-factory train \
--model llama-13b \
--dataset mydata \
--finetuning_type lora \
## المزيد من المعلمات راجع الوثائق الرسمية
طريقة Web UI:
CUDA_VISIBLE_DEVICES=0 python src/train_web.py
تشغيل LLaMABoard، إعداد المعلمات الفائقة للتدريب في مكان واحد
يأتي المشروع مع أكثر من 60 مجموعة بيانات (دليل البيانات)، ويدعم أيضًا ملفات JSON المخصصة، وإدارة موحدة لـ dataset_info.json.
يدعم التدريب تلقائيًا عرض TensorBoard و Wandb؛ ويمكن أيضًا الوصول إلى خلفيات المراقبة مثل MLflow و SwanLab.
بعد الانتهاء من التدريب، قم بإنشاء حزمة نشر مباشرة من خلال CLI أو برنامج نصي للتصدير، ودعم الاستدلال المتزامن وعرض Gradio.
LLaMA‑Factory هو إطار عمل كامل الميزات وسهل الاستخدام ومتقدم تقنيًا للضبط الدقيق لـ LLM. سواء كنت باحثًا أو مهندسًا، يمكنك تخصيص وتدريب ونشر عدد كبير من النماذج مفتوحة المصدر بسرعة، دون الحاجة إلى كتابة تعليمات برمجية معقدة، وهو أداة قوية للدخول إلى مجال الضبط الدقيق لـ LLM.