LocalAI は、OpenAI API の直接的な代替として機能する、無料かつオープンソースの人工知能推論プラットフォームです。OpenAI (および Elevenlabs、Anthropic など) の API 仕様と完全に互換性があり、ローカルでの AI 推論に使用されます。このプロジェクトの中核となる理念は、セルフホスト型でローカル優先のソリューションを提供し、ユーザーがクラウドサービスに依存することなく、コンシューマーグレードのハードウェア上でさまざまな AI モデルを実行できるようにすることです。
LocalAI は、さまざまな方法でモデルをインストールすることをサポートしています。
huggingface://
、oci://
、ollama://
)。LocalAI には Transformers 統合が組み込まれており、モデルの実行に使用できます。これは追加のバックエンドであり、コンテナイメージには Transformers に必要な Python 依存関係がすでに含まれています。
Diffusers バックエンドは、画像からの画像生成のサポート、より長いプロンプト、およびより多くのカーネルスケジューラのサポートなど、さまざまな機能強化を受けています。
# Docker を使用して実行
docker run -p 8080:8080 --name local-ai -ti localai/localai:latest
# 特定のモデルを使用して起動
local-ai run huggingface://TheBloke/phi-2-GGUF/phi-2.Q8_0.gguf
# 構成ファイルを使用して起動
local-ai run https://gist.githubusercontent.com/.../phi-2.yaml
LocalAI は、OpenAI API と完全に互換性のある REST API インターフェースを提供します。これは、次のことを意味します。
# OpenAI Python クライアントを使用して LocalAI に接続
import openai
client = openai.OpenAI(
base_url="http://localhost:8080/v1",
api_key="not-needed"
)
# テキスト生成
response = client.chat.completions.create(
model="gpt-3.5-turbo",
messages=[{"role": "user", "content": "Hello!"}]
)
# 画像生成
image_response = client.images.generate(
model="stable-diffusion",
prompt="A beautiful sunset over mountains",
size="512x512"
)
LocalAI は、完全な制御権を持ち、データのプライバシーを保護し、コストを削減したいユーザーに、強力な OpenAI の代替手段を提供します。さまざまなモデルアーキテクチャをサポートし、完全な API 互換性を提供することで、LocalAI はローカル AI 推論をシンプルで使いやすくし、同時にエンタープライズレベルのパフォーマンスと信頼性を維持します。