Open WebUI は、拡張可能で機能豊富、かつユーザーフレンドリーな自己ホスト型 AI プラットフォームであり、完全なオフライン実行のために設計されています。Ollama や OpenAI 互換 API など、さまざまな LLM ランナーをサポートし、RAG 推論エンジンを内蔵しているため、強力な AI デプロイメントソリューションとなります。
:ollama
および :cuda
タグイメージを提供# Open WebUI のインストール
pip install open-webui
# Open WebUI の実行
open-webui serve
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda
docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
Open WebUI は、機能が充実し、使いやすい自己ホスト型 AI プラットフォームであり、特にプライバシー保護、機能のカスタマイズ、完全な制御を必要とするユーザーに適しています。個人使用でも企業デプロイメントでも、強力で柔軟な AI インタラクション体験を提供できます。豊富なプラグインエコシステムと継続的なコミュニティサポートを通じて、Open WebUI はオープンソース AI インターフェース分野の主要なソリューションになりつつあります。