Open WebUI 是一個可擴展、功能豐富且使用者友好的自託管 AI 平台,專為完全離線運行而設計。它支援各種 LLM 運行器,如 Ollama 和 OpenAI 相容的 API,並內建 RAG 推理引擎,使其成為強大的 AI 部署解決方案。
:ollama
和 :cuda
標籤鏡像,支援不同的部署需求# 安裝 Open WebUI
pip install open-webui
# 運行 Open WebUI
open-webui serve
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda
docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
Open WebUI 是一個功能全面、易於使用的自託管 AI 平台,特別適合需要隱私保護、功能定制和完全控制的使用者。無論是個人使用還是企業部署,都能提供強大而靈活的 AI 交互體驗。通過其豐富的插件生態系統和持續的社區支援,Open WebUI 正在成為開源 AI 界面領域的領先解決方案。