LLaMA‑Factory는 대형 언어 모델(LLM/VLM) 미세 조정, 훈련 및 배포에 중점을 둔 오픈 소스 플랫폼입니다. Yaowei Zheng 등이 ACL 2024에서 발표했으며 arXiv에 수록되었습니다 ([gitee.com][1]). 이 프로젝트는 다음과 같은 특징을 강조합니다.
LLaMA, Phi에서 Qwen2-VL, Gemma, DeepSeek 등에 이르기까지 다양한 크기와 아키텍처를 포함하여 100개 이상의 모델을 지원합니다.
사전 훈련, SFT에서 보상 모델 훈련, PPO/DPO 강화 학습에 이르기까지 일반적인 훈련 프로세스를 통합했습니다.
Web UI(LLaMABoard), TensorBoard, Wandb 등을 통해 훈련 진행 상황, 지표 및 로그를 실시간으로 확인할 수 있습니다.
미세 조정된 모델을 OpenAI API 형식으로 내보내고 동시 추론(vLLM)을 구현하거나 Gradio 프런트엔드를 구축할 수 있습니다.
pip install llama-factory # 또는 GitHub에서 복제하여 설치
CLI 방식:
llama-factory train \
--model llama-13b \
--dataset mydata \
--finetuning_type lora \
## 더 많은 매개변수는 공식 문서를 참조하십시오.
Web UI 방식:
CUDA_VISIBLE_DEVICES=0 python src/train_web.py
LLaMABoard를 실행하여 훈련 하이퍼파라미터를 한 곳에서 설정하십시오.
프로젝트에는 60개 이상의 데이터 세트(data 디렉토리)가 내장되어 있으며 사용자 정의 JSON 파일도 지원하며 dataset_info.json을 통해 통합 관리합니다.
훈련 시 TensorBoard, Wandb 표시를 자동으로 지원합니다. MLflow, SwanLab 등 모니터링 백엔드에 연결할 수도 있습니다.
훈련 후 CLI 또는 export 스크립트를 통해 배포 패키지를 직접 생성하고 동시 추론 및 Gradio 표시를 지원합니다.
LLaMA‑Factory는 기능이 풍부하고 사용하기 쉬우며 기술적으로 진보된 LLM 미세 조정 프레임워크입니다. 연구원이든 엔지니어이든 복잡한 코드를 작성하지 않고도 방대한 오픈 소스 모델을 빠르게 사용자 정의, 훈련 및 배포할 수 있으며 LLM 미세 조정 분야에 진입하는 데 유용한 도구입니다.