LocalAI는 무료 오픈 소스 인공지능 추론 플랫폼으로, OpenAI API의 직접적인 대체재 역할을 하며, OpenAI (및 Elevenlabs, Anthropic 등) API 규격과 완벽하게 호환되어 로컬 AI 추론에 사용됩니다. 이 프로젝트의 핵심 이념은 자가 호스팅, 로컬 우선 솔루션을 제공하여 사용자가 클라우드 서비스에 의존하지 않고도 소비 등급 하드웨어에서 다양한 AI 모델을 실행할 수 있도록 하는 것입니다.
LocalAI는 다양한 방식으로 모델 설치를 지원합니다.
huggingface://
, oci://
, ollama://
)LocalAI는 Transformers 통합을 내장하여 모델을 실행할 수 있습니다. 이는 추가적인 백엔드이며, 컨테이너 이미지에 Transformers에 필요한 Python 종속성이 이미 포함되어 있습니다.
Diffusers 백엔드는 이미지에서 이미지 생성, 더 긴 프롬프트, 더 많은 커널 스케줄러 지원 등 다양한 기능이 향상되었습니다.
# Docker를 사용하여 실행
docker run -p 8080:8080 --name local-ai -ti localai/localai:latest
# 특정 모델을 사용하여 시작
local-ai run huggingface://TheBloke/phi-2-GGUF/phi-2.Q8_0.gguf
# 구성 파일을 사용하여 시작
local-ai run https://gist.githubusercontent.com/.../phi-2.yaml
LocalAI는 OpenAI API와 완벽하게 호환되는 REST API 인터페이스를 제공하므로 다음이 가능합니다.
# OpenAI Python 클라이언트를 사용하여 LocalAI에 연결
import openai
client = openai.OpenAI(
base_url="http://localhost:8080/v1",
api_key="not-needed"
)
# 텍스트 생성
response = client.chat.completions.create(
model="gpt-3.5-turbo",
messages=[{"role": "user", "content": "Hello!"}]
)
# 이미지 생성
image_response = client.images.generate(
model="stable-diffusion",
prompt="A beautiful sunset over mountains",
size="512x512"
)
LocalAI는 완전한 제어 권한을 갖고, 데이터 프라이버시를 보호하며, 비용을 절감하고자 하는 사용자에게 강력한 OpenAI 대체 솔루션을 제공합니다. 다양한 모델 아키텍처를 지원하고 완벽한 API 호환성을 제공함으로써 LocalAI는 로컬 AI 추론을 쉽고 간편하게 만들면서도 기업 수준의 성능과 안정성을 유지합니다.