Stability AI의 생성 모델 라이브러리는 이미지 생성, 비디오 생성, 다중 시점 합성 등 다양한 고급 AI 생성 모델을 제공하는 오픈 소스 프로젝트입니다. 이 프로젝트는 모듈식 설계를 채택하여 다양한 확산 모델의 훈련 및 추론을 지원합니다.
instantiate_from_config()
함수를 호출하여 하위 모듈을 구축하고 조합합니다.LatentDiffusion
에서 DiffusionEngine
으로 재구성되었습니다.GeneralConditioner
클래스는 모든 유형의 조건 입력을 처리합니다.denoiser_weighting.py
)denoiser_scaling.py
)sigma_sampling.py
)git clone https://github.com/Stability-AI/generative-models.git
cd generative-models
# 가상 환경 생성
python3 -m venv .pt2
source .pt2/bin/activate
# 종속성 설치
pip3 install -r requirements/pt2.txt
pip3 install .
pip3 install -e git+https://github.com/Stability-AI/datapipelines.git@main#egg=sdata
# 모델 가중치를 checkpoints/ 폴더에 다운로드
# Streamlit 데모 실행
streamlit run scripts/demo/sampling.py --server.port <your_port>
# SVD 모델 다운로드
# 간단한 비디오 샘플링 실행
python scripts/sampling/simple_video_sample.py --input_path <path/to/image.png>
# SV3D_u (궤도 비디오)
python scripts/sampling/simple_video_sample.py --input_path <path/to/image.png> --version sv3d_u
# SV3D_p (지정된 카메라 경로)
python scripts/sampling/simple_video_sample.py --input_path <path/to/image.png> --version sv3d_p --elevations_deg 10.0
python scripts/sampling/simple_video_sample_4d.py --input_path assets/sv4d_videos/test_video1.mp4 --output_folder outputs/sv4d
# MNIST 조건부 생성 훈련
python main.py --base configs/example_training/toy/mnist_cond.yaml
# 텍스트-이미지 훈련
python main.py --base configs/example_training/txt2img-clipl.yaml
example = {
"jpg": x,
"txt": "a beautiful image"
}
프로젝트는 invisible-watermark 라이브러리를 사용하여 생성된 이미지에 보이지 않는 워터마크를 삽입합니다.
# 워터마크 감지 환경 설치
python -m venv .detect
source .detect/bin/activate
pip install "numpy>=1.17" "PyWavelets>=1.1.1" "opencv-python>=4.1.0.25"
pip install --no-deps invisible-watermark
# 워터마크 감지
python scripts/demo/detect.py <filename>
이 프로젝트는 현재 생성 AI 분야의 최첨단 기술을 대표하며, 연구자 및 개발자에게 생성 AI 기술을 탐구하고 적용할 수 있는 강력한 도구를 제공합니다.