Home
Login

功能丰富的自托管AI聊天界面,支持Ollama和OpenAI API,提供完全离线的AI对话体验

NOASSERTIONJavaScript 99.5kopen-webui Last Updated: 2025-06-20

Open WebUI 项目详细介绍

项目概述

Open WebUI 是一个可扩展、功能丰富且用户友好的自托管AI平台,专为完全离线运行而设计。它支持各种LLM运行器,如Ollama和OpenAI兼容的API,并内置RAG推理引擎,使其成为强大的AI部署解决方案。

核心特性

🚀 简化部署

  • 无障碍安装:使用Docker或Kubernetes(kubectl、kustomize或helm)进行无缝安装
  • 多镜像支持:提供:ollama:cuda标签镜像,支持不同的部署需求
  • Python包安装:支持通过pip进行快速安装

🤝 多模型集成

  • Ollama集成:原生支持Ollama模型运行
  • OpenAI API兼容:轻松集成OpenAI兼容的API
  • 第三方平台支持:可连接LMStudio、GroqCloud、Mistral、OpenRouter等平台
  • 多模型并发:同时与多个模型进行对话,充分利用不同模型的优势

🛡️ 安全与权限管理

  • 细粒度权限控制:管理员可创建详细的用户角色和权限
  • 基于角色的访问控制(RBAC):确保安全访问,限制权限
  • 用户组管理:支持创建和管理不同的用户组

📱 响应式设计

  • 跨平台兼容:在桌面PC、笔记本电脑和移动设备上提供无缝体验
  • 渐进式Web应用(PWA):在移动设备上提供类似原生应用的体验
  • 离线访问:在localhost上提供离线访问功能

✒️ 内容支持

  • Markdown支持:完整的Markdown渲染功能
  • LaTeX支持:支持数学公式和科学符号显示
  • 多语言国际化:支持多种语言界面

🎤 多媒体交互

  • 语音通话:集成免提语音通话功能
  • 视频通话:支持视频通话,提供更动态的交互环境
  • 语音输入:支持语音输入和识别

🛠️ 高级功能

模型构建器

  • 通过Web界面轻松创建Ollama模型
  • 创建和添加自定义角色/代理
  • 自定义聊天元素
  • 通过Open WebUI社区集成轻松导入模型

Python函数调用工具

  • 内置代码编辑器支持
  • 工作区中的工具支持
  • 自带函数(BYOF):通过添加纯Python函数实现无缝LLM集成

📚 本地RAG集成

  • 文档交互:将文档交互无缝集成到聊天体验中
  • 文档库:直接将文档加载到聊天中或添加到文档库
  • 查询命令:使用#命令轻松访问文档
  • 检索增强生成:提供先进的RAG支持

🔍 Web搜索RAG

  • 多搜索提供商:支持SearXNG、Google PSE、Brave Search、serpstack、serper、Serply、DuckDuckGo、TavilySearch、SearchApi和Bing
  • 搜索结果集成:将搜索结果直接注入聊天体验
  • 实时信息获取:获取最新的网络信息

🌐 Web浏览功能

  • 使用#命令后跟URL将网站内容无缝集成到聊天中
  • 直接将网络内容融入对话
  • 增强交互的丰富度和深度

🎨 图像生成集成

  • 本地图像生成:支持AUTOMATIC1111 API或ComfyUI
  • 外部图像生成:支持OpenAI的DALL-E
  • 动态视觉内容:丰富聊天体验的视觉内容

🧩 插件与扩展

Pipelines插件框架

  • 使用Pipelines插件框架将自定义逻辑和Python库无缝集成到Open WebUI中
  • 支持功能调用
  • 用户访问控制和速率限制
  • 使用Langfuse等工具进行使用监控
  • LibreTranslate实时翻译支持多语言
  • 有毒消息过滤等高级功能

安装方式

Python pip安装

# 安装Open WebUI
pip install open-webui

# 运行Open WebUI
open-webui serve

Docker安装

基础安装

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

GPU支持安装

docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda

包含Ollama的完整安装

docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama

社区与生态

Open WebUI Community

  • 发现、下载和探索自定义Modelfiles
  • 提供广泛的聊天交互增强可能性
  • 活跃的社区支持和贡献

持续更新

  • 定期更新、修复和新功能
  • 积极的开发团队
  • 响应式的社区反馈

企业级功能

  • 企业计划:提供增强功能
  • 自定义主题:支持自定义主题和品牌
  • 专业支持:企业级技术支持

使用场景

个人用户

  • 私人AI助手
  • 学习和研究工具
  • 创意写作助手
  • 代码开发辅助

企业用户

  • 内部知识库查询
  • 客户服务自动化
  • 文档处理和分析
  • 团队协作工具

开发者

  • AI应用原型开发
  • 模型测试和评估
  • 自定义AI工具开发
  • API集成测试

技术架构

前端技术

  • 现代Web技术栈
  • 响应式设计
  • PWA支持
  • 多语言国际化

后端技术

  • Python基础架构
  • RESTful API设计
  • 插件化架构
  • 容器化部署

数据处理

  • RAG检索增强生成
  • 文档向量化
  • 实时搜索集成
  • 多模态数据处理

优势特点

  1. 完全开源:MIT许可证,自由使用和修改
  2. 隐私保护:完全离线运行,数据不会泄露
  3. 功能丰富:集成了现代AI应用所需的各种功能
  4. 易于部署:多种安装方式,适合不同技术水平的用户
  5. 高度可定制:插件系统和自定义功能支持
  6. 活跃社区:持续的开发和社区支持

总结

Open WebUI是一个功能全面、易于使用的自托管AI平台,特别适合需要隐私保护、功能定制和完全控制的用户。无论是个人使用还是企业部署,都能提供强大而灵活的AI交互体验。通过其丰富的插件生态系统和持续的社区支持,Open WebUI正在成为开源AI界面领域的领先解决方案。