Home
Login

4단계: 딥러닝 및 신경망

Hugging Face에서 제공하는 대규모 언어 모델 및 자연어 처리 무료 강좌로, Transformers, 데이터 처리, 모델 미세 조정 등 전체 기술 스택을 다룹니다.

LLMNLPTransformersWebSiteTextFreeMulti-Language

Hugging Face LLM 과정 상세 소개

과정 개요

Hugging Face에서 제공하는 대규모 언어 모델(LLM) 및 자연어 처리(NLP) 과정으로, Hugging Face 생태계 라이브러리를 활용한 학습 및 실습에 중점을 둡니다.

과정 특징

  • 완전 무료: 광고 없음, 유료 콘텐츠 없음
  • 실습 중심: 이론과 실습을 결합하여 코드 예시 제공
  • 오픈소스 정신: 모든 콘텐츠는 Apache 2 라이선스에 따라 배포됨
  • 다국어 지원: 다양한 언어 버전 번역 지원
  • 커뮤니티 주도: 활발한 커뮤니티 지원 및 토론

과정 구성

1-4장: 🤗 Transformers 라이브러리 기초

  • Transformer 모델의 작동 원리
  • Hugging Face Hub의 모델 사용 방법
  • 모델 미세 조정(Fine-tuning) 기술
  • Hub에 결과 공유하기

5-8장: 데이터 처리 및 고전 NLP 작업

  • 🤗 Datasets 및 🤗 Tokenizers 기초
  • 고전 NLP 작업 처리
  • LLM 기술 심화
  • 일반적인 언어 처리 문제 해결책

9장: 모델 배포 및 시연

  • 모델 데모 구축 및 공유
  • 🤗 Hub에 애플리케이션 시연
  • 모델 시각화 기술

10-12장: 고급 LLM 주제

  • 고급 미세 조정(Fine-tuning) 기술
  • 고품질 데이터셋 큐레이션
  • 추론 모델 구축
  • 최신 LLM 개발 동향

핵심 기술 스택

주요 라이브러리

  • 🤗 Transformers: 핵심 모델 라이브러리
  • 🤗 Datasets: 데이터 처리 라이브러리
  • 🤗 Tokenizers: 토크나이저 라이브러리
  • 🤗 Accelerate: 훈련 가속화 라이브러리
  • Hugging Face Hub: 모델 및 데이터셋 허브

지원 프레임워크

  • PyTorch
  • TensorFlow
  • JAX

학습 환경 설정

방법 1: Google Colab

# Install the basic version
!pip install transformers

# Install the full version (recommended)
!pip install transformers[sentencepiece]

방법 2: Python 가상 환경

# Create project directory
mkdir ~/transformers-course
cd ~/transformers-course

# Create virtual environment
python -m venv .env

# Activate virtual environment
source .env/bin/activate

# Install dependencies
pip install "transformers[sentencepiece]"

과정 요구 사항

기술 요구 사항

  • Python 기초: 충분한 Python 프로그래밍 지식 필요
  • 딥러닝 기초: 입문 수준의 딥러닝 과정을 먼저 이수하는 것을 권장
  • 프레임워크 지식: PyTorch 또는 TensorFlow 경험이 필수는 아니지만, 어느 정도 이해하고 있으면 도움이 됨

권장 선수 과정

과정 저자 팀

핵심 저자

  • Abubakar Abid: Gradio 창립자, 스탠포드 박사
  • Ben Burtenshaw: NLP 박사, 아동 스토리 생성 연구
  • Matthew Carrigan: 더블린 트리니티 칼리지 박사후 연구원
  • Lysandre Debut: 🤗 Transformers 핵심 개발자
  • Sylvain Gugger: 《Deep Learning for Coders》 공동 저자
  • Lewis Tunstall: 《Natural Language Processing with Transformers》 공동 저자
  • Leandro von Werra: 《Natural Language Processing with Transformers》 공동 저자

학습 시간 계획

  • 각 장 소요 시간: 1주
  • 주간 학습 시간: 6-8시간
  • 전체 진행 속도: 개인의 학습 속도에 따라 조절 가능

자료 및 지원

학습 자료

다국어 지원

과정은 다음 언어 버전으로 제공됩니다:

  • 중국어(간체)
  • 프랑스어
  • 독일어
  • 스페인어
  • 일본어
  • 한국어
  • 베트남어
  • 등 다양한 언어

실습 프로젝트

프로젝트 유형

  • 텍스트 분류
  • 텍스트 생성
  • 질의응답 시스템
  • 감성 분석
  • 개체명 인식
  • 기계 번역
  • 텍스트 요약

실습 플랫폼

  • Google Colab (초보자 권장)
  • 로컬 환경
  • Hugging Face Spaces

수료증 및 인증

  • 현재 공식적인 인증은 없음
  • Hugging Face는 인증 프로그램 개발 중
  • 과정 완료 후 프로젝트 포트폴리오 획득 가능

후속 학습 권장 사항

본 과정을 완료한 후 다음을 계속 학습하는 것을 권장합니다:

과정의 가치

이 과정은 특히 다음 대상에게 적합합니다:

  • LLM 개발에 입문하고자 하는 엔지니어
  • 제품에 AI 기능을 통합해야 하는 개발자
  • 최신 NLP 기술을 이해하고자 하는 연구원
  • 오픈소스 도구를 사용하여 AI 애플리케이션을 구축하려는 팀

이 과정을 통해 학습자는 기본 개념부터 실제 적용까지 LLM 개발의 완전한 기술 스택을 습득하게 될 것입니다.