open-webui/open-webuiView GitHub Homepage for Latest Official Releases
功能丰富的自托管AI聊天界面,支持Ollama和OpenAI API,提供完全离线的AI对话体验
NOASSERTIONJavaScriptopen-webuiopen-webui 105.6k Last Updated: August 06, 2025
Open WebUI 项目详细介绍
项目概述
Open WebUI 是一个可扩展、功能丰富且用户友好的自托管AI平台,专为完全离线运行而设计。它支持各种LLM运行器,如Ollama和OpenAI兼容的API,并内置RAG推理引擎,使其成为强大的AI部署解决方案。
核心特性
🚀 简化部署
- 无障碍安装:使用Docker或Kubernetes(kubectl、kustomize或helm)进行无缝安装
- 多镜像支持:提供
:ollama
和:cuda
标签镜像,支持不同的部署需求 - Python包安装:支持通过pip进行快速安装
🤝 多模型集成
- Ollama集成:原生支持Ollama模型运行
- OpenAI API兼容:轻松集成OpenAI兼容的API
- 第三方平台支持:可连接LMStudio、GroqCloud、Mistral、OpenRouter等平台
- 多模型并发:同时与多个模型进行对话,充分利用不同模型的优势
🛡️ 安全与权限管理
- 细粒度权限控制:管理员可创建详细的用户角色和权限
- 基于角色的访问控制(RBAC):确保安全访问,限制权限
- 用户组管理:支持创建和管理不同的用户组
📱 响应式设计
- 跨平台兼容:在桌面PC、笔记本电脑和移动设备上提供无缝体验
- 渐进式Web应用(PWA):在移动设备上提供类似原生应用的体验
- 离线访问:在localhost上提供离线访问功能
✒️ 内容支持
- Markdown支持:完整的Markdown渲染功能
- LaTeX支持:支持数学公式和科学符号显示
- 多语言国际化:支持多种语言界面
🎤 多媒体交互
- 语音通话:集成免提语音通话功能
- 视频通话:支持视频通话,提供更动态的交互环境
- 语音输入:支持语音输入和识别
🛠️ 高级功能
模型构建器
- 通过Web界面轻松创建Ollama模型
- 创建和添加自定义角色/代理
- 自定义聊天元素
- 通过Open WebUI社区集成轻松导入模型
Python函数调用工具
- 内置代码编辑器支持
- 工作区中的工具支持
- 自带函数(BYOF):通过添加纯Python函数实现无缝LLM集成
📚 本地RAG集成
- 文档交互:将文档交互无缝集成到聊天体验中
- 文档库:直接将文档加载到聊天中或添加到文档库
- 查询命令:使用#命令轻松访问文档
- 检索增强生成:提供先进的RAG支持
🔍 Web搜索RAG
- 多搜索提供商:支持SearXNG、Google PSE、Brave Search、serpstack、serper、Serply、DuckDuckGo、TavilySearch、SearchApi和Bing
- 搜索结果集成:将搜索结果直接注入聊天体验
- 实时信息获取:获取最新的网络信息
🌐 Web浏览功能
- 使用#命令后跟URL将网站内容无缝集成到聊天中
- 直接将网络内容融入对话
- 增强交互的丰富度和深度
🎨 图像生成集成
- 本地图像生成:支持AUTOMATIC1111 API或ComfyUI
- 外部图像生成:支持OpenAI的DALL-E
- 动态视觉内容:丰富聊天体验的视觉内容
🧩 插件与扩展
Pipelines插件框架
- 使用Pipelines插件框架将自定义逻辑和Python库无缝集成到Open WebUI中
- 支持功能调用
- 用户访问控制和速率限制
- 使用Langfuse等工具进行使用监控
- LibreTranslate实时翻译支持多语言
- 有毒消息过滤等高级功能
安装方式
Python pip安装
# 安装Open WebUI
pip install open-webui
# 运行Open WebUI
open-webui serve
Docker安装
基础安装
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
GPU支持安装
docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda
包含Ollama的完整安装
docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
社区与生态
Open WebUI Community
- 发现、下载和探索自定义Modelfiles
- 提供广泛的聊天交互增强可能性
- 活跃的社区支持和贡献
持续更新
- 定期更新、修复和新功能
- 积极的开发团队
- 响应式的社区反馈
企业级功能
- 企业计划:提供增强功能
- 自定义主题:支持自定义主题和品牌
- 专业支持:企业级技术支持
使用场景
个人用户
- 私人AI助手
- 学习和研究工具
- 创意写作助手
- 代码开发辅助
企业用户
- 内部知识库查询
- 客户服务自动化
- 文档处理和分析
- 团队协作工具
开发者
- AI应用原型开发
- 模型测试和评估
- 自定义AI工具开发
- API集成测试
技术架构
前端技术
- 现代Web技术栈
- 响应式设计
- PWA支持
- 多语言国际化
后端技术
- Python基础架构
- RESTful API设计
- 插件化架构
- 容器化部署
数据处理
- RAG检索增强生成
- 文档向量化
- 实时搜索集成
- 多模态数据处理
优势特点
- 完全开源:MIT许可证,自由使用和修改
- 隐私保护:完全离线运行,数据不会泄露
- 功能丰富:集成了现代AI应用所需的各种功能
- 易于部署:多种安装方式,适合不同技术水平的用户
- 高度可定制:插件系统和自定义功能支持
- 活跃社区:持续的开发和社区支持
总结
Open WebUI是一个功能全面、易于使用的自托管AI平台,特别适合需要隐私保护、功能定制和完全控制的用户。无论是个人使用还是企业部署,都能提供强大而灵活的AI交互体验。通过其丰富的插件生态系统和持续的社区支持,Open WebUI正在成为开源AI界面领域的领先解决方案。