Home
Login

제로 코드, 로우 코드 기반의 대규모 언어 모델 미세 조정 및 배포 프레임워크로, 100개 이상의 LLM/VLM을 통합적으로 효율적인 미세 조정할 수 있도록 지원합니다.

Apache-2.0Python 52.6khiyouga Last Updated: 2025-06-18

💡 LLaMA‑Factory 프로젝트 상세 설명

1. 프로젝트 개요

LLaMA‑Factory는 대형 언어 모델(LLM/VLM) 미세 조정, 훈련 및 배포에 중점을 둔 오픈 소스 플랫폼입니다. Yaowei Zheng 등이 ACL 2024에서 발표했으며 arXiv에 수록되었습니다 ([gitee.com][1]). 이 프로젝트는 다음과 같은 특징을 강조합니다.

  • 100개 이상의 모델 지원: LLaMA, LLaVA, Mistral, Qwen, ChatGLM, Phi 등 주요 및 신흥 모델을 포함합니다.
  • 제로 코드 + 로우 코드 인터페이스: CLI 및 Web UI(LLaMABoard) 모드로 일반적인 훈련 프로세스를 다루며 기술적 진입 장벽이 매우 낮습니다.
  • 다양한 효율적인 미세 조정 방법 통합: LoRA, QLoRA(2/4/8 bit), 고정, 16-bit 전체 파라미터, FlashAttention‑2, Unsloth, RoPE scaling 등을 지원합니다.
  • 풍부한 튜닝 알고리즘: GaLore, BAdam, DoRA, LongLoRA, LLaMA Pro, Mixture‑of‑Depths, LoRA+, LoftQ, PiSSA 등.
  • 다양한 훈련 방법: 사전 훈련, 지도 미세 조정(SFT), 보상 모델링(RM), PPO/DPO/KTO/ORPO 등 강화 학습 방법.
  • 다양한 실험 모니터링 도구: LlamaBoard, TensorBoard, Wandb, MLflow, SwanLab 등을 지원합니다.
  • 추론 및 배포 호환성: OpenAI API 스타일 배포, vLLM 동시 추론, Gradio UI 등 풍부한 추론 옵션을 지원합니다.

2. 핵심 기능 하이라이트

1. 모델 지원 범위 광범위

LLaMA, Phi에서 Qwen2-VL, Gemma, DeepSeek 등에 이르기까지 다양한 크기와 아키텍처를 포함하여 100개 이상의 모델을 지원합니다.

2. 효율적인 미세 조정 기술

  • LoRA / QLoRA: 저비트 양자화 적응형 미세 조정을 지원합니다. 4-bit LoRA는 기존 방법보다 추론 속도가 빠르고 메모리 요구 사항이 적습니다.
  • 최적화 연산자: FlashAttention-2, Unsloth는 훈련 속도와 메모리 활용도를 향상시킵니다.
  • RoPE Scaling: 컨텍스트 길이 확장 능력.

3. 훈련 및 강화 학습

사전 훈련, SFT에서 보상 모델 훈련, PPO/DPO 강화 학습에 이르기까지 일반적인 훈련 프로세스를 통합했습니다.

4. 시각화 모니터링

Web UI(LLaMABoard), TensorBoard, Wandb 등을 통해 훈련 진행 상황, 지표 및 로그를 실시간으로 확인할 수 있습니다.

5. 추론 및 배포 능력

미세 조정된 모델을 OpenAI API 형식으로 내보내고 동시 추론(vLLM)을 구현하거나 Gradio 프런트엔드를 구축할 수 있습니다.


3. 사용 흐름 & 빠른 시작

설치 / 실행

pip install llama-factory   # 또는 GitHub에서 복제하여 설치
  • CLI 방식:

    llama-factory train \
      --model llama-13b \
      --dataset mydata \
      --finetuning_type lora \
      ## 더 많은 매개변수는 공식 문서를 참조하십시오.
    
  • Web UI 방식:

    CUDA_VISIBLE_DEVICES=0 python src/train_web.py
    

    LLaMABoard를 실행하여 훈련 하이퍼파라미터를 한 곳에서 설정하십시오.


데이터 준비

프로젝트에는 60개 이상의 데이터 세트(data 디렉토리)가 내장되어 있으며 사용자 정의 JSON 파일도 지원하며 dataset_info.json을 통해 통합 관리합니다.


모니터링 및 평가

훈련 시 TensorBoard, Wandb 표시를 자동으로 지원합니다. MLflow, SwanLab 등 모니터링 백엔드에 연결할 수도 있습니다.


추론 배포

훈련 후 CLI 또는 export 스크립트를 통해 배포 패키지를 직접 생성하고 동시 추론 및 Gradio 표시를 지원합니다.

5. 요약

LLaMA‑Factory는 기능이 풍부하고 사용하기 쉬우며 기술적으로 진보된 LLM 미세 조정 프레임워크입니다. 연구원이든 엔지니어이든 복잡한 코드를 작성하지 않고도 방대한 오픈 소스 모델을 빠르게 사용자 정의, 훈련 및 배포할 수 있으며 LLM 미세 조정 분야에 진입하는 데 유용한 도구입니다.