LocalAI 是一個免費、開源的人工智慧推理平台,作為 OpenAI API 的直接替代品,完全相容 OpenAI(以及 Elevenlabs、Anthropic 等)的 API 規範,用於本地 AI 推理。該項目的核心理念是提供一個自託管、本地優先的解決方案,讓使用者能夠在消費級硬體上運行各種 AI 模型,無需依賴雲服務。
LocalAI 支援通過多種方式安裝模型:
huggingface://
、oci://
、ollama://
)LocalAI 內置了 Transformers 集成,可以用來運行模型。這是一個額外的後端,在容器鏡像中已經包含了 Transformers 所需的 Python 依賴。
Diffusers 後端獲得了各種增強功能,包括支援從圖像生成圖像、更長的提示詞,以及對更多內核調度器的支援。
# 使用 Docker 運行
docker run -p 8080:8080 --name local-ai -ti localai/localai:latest
# 使用特定模型啟動
local-ai run huggingface://TheBloke/phi-2-GGUF/phi-2.Q8_0.gguf
# 使用配置文件啟動
local-ai run https://gist.githubusercontent.com/.../phi-2.yaml
LocalAI 提供與 OpenAI API 完全相容的 REST API 介面,這意味著您可以:
# 使用 OpenAI Python 客戶端連接 LocalAI
import openai
client = openai.OpenAI(
base_url="http://localhost:8080/v1",
api_key="not-needed"
)
# 文字生成
response = client.chat.completions.create(
model="gpt-3.5-turbo",
messages=[{"role": "user", "content": "Hello!"}]
)
# 圖像生成
image_response = client.images.generate(
model="stable-diffusion",
prompt="A beautiful sunset over mountains",
size="512x512"
)
LocalAI 為那些希望擁有完全控制權、保護數據隱私、降低成本的使用者提供了一個強大的 OpenAI 替代方案。通過支援多種模型架構和提供完整的 API 相容性,LocalAI 使得本地 AI 推理變得簡單易用,同時保持了企業級的性能和可靠性。