LocalAI 是一个免费、开源的人工智能推理平台,作为 OpenAI API 的直接替代品,完全兼容 OpenAI(以及 Elevenlabs、Anthropic 等)的 API 规范,用于本地 AI 推理。该项目的核心理念是提供一个自托管、本地优先的解决方案,让用户能够在消费级硬件上运行各种AI模型,无需依赖云服务。
LocalAI支持通过多种方式安装模型:
huggingface://
、oci://
、ollama://
)LocalAI内置了Transformers集成,可以用来运行模型。这是一个额外的后端,在容器镜像中已经包含了Transformers所需的Python依赖。
Diffusers后端获得了各种增强功能,包括支持从图像生成图像、更长的提示词,以及对更多内核调度器的支持。
# 使用Docker运行
docker run -p 8080:8080 --name local-ai -ti localai/localai:latest
# 使用特定模型启动
local-ai run huggingface://TheBloke/phi-2-GGUF/phi-2.Q8_0.gguf
# 使用配置文件启动
local-ai run https://gist.githubusercontent.com/.../phi-2.yaml
LocalAI提供与OpenAI API完全兼容的REST API接口,这意味着您可以:
# 使用OpenAI Python客户端连接LocalAI
import openai
client = openai.OpenAI(
base_url="http://localhost:8080/v1",
api_key="not-needed"
)
# 文本生成
response = client.chat.completions.create(
model="gpt-3.5-turbo",
messages=[{"role": "user", "content": "Hello!"}]
)
# 图像生成
image_response = client.images.generate(
model="stable-diffusion",
prompt="A beautiful sunset over mountains",
size="512x512"
)
LocalAI为那些希望拥有完全控制权、保护数据隐私、降低成本的用户提供了一个强大的OpenAI替代方案。通过支持多种模型架构和提供完整的API兼容性,LocalAI使得本地AI推理变得简单易用,同时保持了企业级的性能和可靠性。