open-webui/open-webuiView GitHub Homepage for Latest Official Releases
功能豐富的自託管AI聊天介面,支援Ollama和OpenAI API,提供完全離線的AI對話體驗
NOASSERTIONJavaScriptopen-webuiopen-webui 106.2k Last Updated: August 11, 2025
Open WebUI 項目詳細介紹
項目概述
Open WebUI 是一個可擴展、功能豐富且使用者友好的自託管 AI 平台,專為完全離線運行而設計。它支援各種 LLM 運行器,如 Ollama 和 OpenAI 相容的 API,並內建 RAG 推理引擎,使其成為強大的 AI 部署解決方案。
核心特性
🚀 簡化部署
- 無障礙安裝:使用 Docker 或 Kubernetes(kubectl、kustomize 或 helm)進行無縫安裝
- 多鏡像支援:提供
:ollama
和:cuda
標籤鏡像,支援不同的部署需求 - Python 包安裝:支援通過 pip 進行快速安裝
🤝 多模型集成
- Ollama 集成:原生支援 Ollama 模型運行
- OpenAI API 相容:輕鬆集成 OpenAI 相容的 API
- 第三方平台支援:可連接 LMStudio、GroqCloud、Mistral、OpenRouter 等平台
- 多模型併發:同時與多個模型進行對話,充分利用不同模型的優勢
🛡️ 安全與權限管理
- 細粒度權限控制:管理員可創建詳細的使用者角色和權限
- 基於角色的訪問控制(RBAC):確保安全訪問,限制權限
- 使用者組管理:支援創建和管理不同的使用者組
📱 響應式設計
- 跨平台相容:在桌面 PC、筆記本電腦和移動設備上提供無縫體驗
- 漸進式 Web 應用(PWA):在移動設備上提供類似原生應用的體驗
- 離線訪問:在 localhost 上提供離線訪問功能
✒️ 內容支援
- Markdown 支援:完整的 Markdown 渲染功能
- LaTeX 支援:支援數學公式和科學符號顯示
- 多語言國際化:支援多種語言界面
🎤 多媒體交互
- 語音通話:集成免提語音通話功能
- 視頻通話:支援視頻通話,提供更動態的交互環境
- 語音輸入:支援語音輸入和識別
🛠️ 高級功能
模型構建器
- 通過 Web 界面輕鬆創建 Ollama 模型
- 創建和添加自定義角色/代理
- 自定義聊天元素
- 通過 Open WebUI 社區集成輕鬆導入模型
Python 函數調用工具
- 內置代碼編輯器支援
- 工作區中的工具支援
- 自帶函數(BYOF):通過添加純 Python 函數實現無縫 LLM 集成
📚 本地 RAG 集成
- 文檔交互:將文檔交互無縫集成到聊天體驗中
- 文檔庫:直接將文檔加載到聊天中或添加到文檔庫
- 查詢命令:使用 # 命令輕鬆訪問文檔
- 檢索增強生成:提供先進的 RAG 支援
🔍 Web 搜索 RAG
- 多搜索提供商:支援 SearXNG、Google PSE、Brave Search、serpstack、serper、Serply、DuckDuckGo、TavilySearch、SearchApi 和 Bing
- 搜索結果集成:將搜索結果直接注入聊天體驗
- 實時信息獲取:獲取最新的網絡信息
🌐 Web 瀏覽功能
- 使用 # 命令後跟 URL 將網站內容無縫集成到聊天中
- 直接將網絡內容融入對話
- 增強交互的豐富度和深度
🎨 圖像生成集成
- 本地圖像生成:支援 AUTOMATIC1111 API 或 ComfyUI
- 外部圖像生成:支援 OpenAI 的 DALL-E
- 動態視覺內容:豐富聊天體驗的視覺內容
🧩 插件與擴展
Pipelines 插件框架
- 使用 Pipelines 插件框架將自定義邏輯和 Python 庫無縫集成到 Open WebUI 中
- 支援功能調用
- 使用者訪問控制和速率限制
- 使用 Langfuse 等工具進行使用監控
- LibreTranslate 實時翻譯支援多語言
- 有毒消息過濾等高級功能
安裝方式
Python pip 安裝
# 安裝 Open WebUI
pip install open-webui
# 運行 Open WebUI
open-webui serve
Docker 安裝
基礎安裝
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
GPU 支援安裝
docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda
包含 Ollama 的完整安裝
docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
社區與生態
Open WebUI Community
- 發現、下載和探索自定義 Modelfiles
- 提供廣泛的聊天交互增強可能性
- 活躍的社區支援和貢獻
持續更新
- 定期更新、修復和新功能
- 積極的開發團隊
- 響應式的社區反饋
企業級功能
- 企業計劃:提供增強功能
- 自定義主題:支援自定義主題和品牌
- 專業支援:企業級技術支援
使用場景
個人使用者
- 私人 AI 助手
- 學習和研究工具
- 創意寫作助手
- 代碼開發輔助
企業使用者
- 內部知識庫查詢
- 客戶服務自動化
- 文檔處理和分析
- 團隊協作工具
開發者
- AI 應用原型開發
- 模型測試和評估
- 自定義 AI 工具開發
- API 集成測試
技術架構
前端技術
- 現代 Web 技術棧
- 響應式設計
- PWA 支援
- 多語言國際化
後端技術
- Python 基礎架構
- RESTful API 設計
- 插件化架構
- 容器化部署
數據處理
- RAG 檢索增強生成
- 文檔向量化
- 實時搜索集成
- 多模態數據處理
優勢特點
- 完全開源:MIT 許可證,自由使用和修改
- 隱私保護:完全離線運行,數據不會洩露
- 功能豐富:集成了現代 AI 應用所需的各種功能
- 易於部署:多種安裝方式,適合不同技術水平的使用者
- 高度可定制:插件系統和自定義功能支援
- 活躍社區:持續的開發和社區支援
總結
Open WebUI 是一個功能全面、易於使用的自託管 AI 平台,特別適合需要隱私保護、功能定制和完全控制的使用者。無論是個人使用還是企業部署,都能提供強大而靈活的 AI 交互體驗。通過其豐富的插件生態系統和持續的社區支援,Open WebUI 正在成為開源 AI 界面領域的領先解決方案。