Open WebUI 是一个可扩展、功能丰富且用户友好的自托管AI平台,专为完全离线运行而设计。它支持各种LLM运行器,如Ollama和OpenAI兼容的API,并内置RAG推理引擎,使其成为强大的AI部署解决方案。
:ollama
和:cuda
标签镜像,支持不同的部署需求# 安装Open WebUI
pip install open-webui
# 运行Open WebUI
open-webui serve
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda
docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
Open WebUI是一个功能全面、易于使用的自托管AI平台,特别适合需要隐私保护、功能定制和完全控制的用户。无论是个人使用还是企业部署,都能提供强大而灵活的AI交互体验。通过其丰富的插件生态系统和持续的社区支持,Open WebUI正在成为开源AI界面领域的领先解决方案。