Open WebUI는 확장 가능하고 기능이 풍부하며 사용자 친화적인 자체 호스팅 AI 플랫폼으로, 완전한 오프라인 실행을 위해 설계되었습니다. Ollama 및 OpenAI 호환 API와 같은 다양한 LLM 실행기를 지원하며, RAG 추론 엔진이 내장되어 있어 강력한 AI 배포 솔루션입니다.
:ollama
및 :cuda
태그 이미지 제공# Open WebUI 설치
pip install open-webui
# Open WebUI 실행
open-webui serve
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda
docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
Open WebUI는 기능이 포괄적이고 사용하기 쉬운 자체 호스팅 AI 플랫폼으로, 특히 개인 정보 보호, 기능 사용자 정의 및 완전한 제어가 필요한 사용자에게 적합합니다. 개인 사용이든 기업 배포이든 강력하고 유연한 AI 상호 작용 경험을 제공할 수 있습니다. 풍부한 플러그인 생태계와 지속적인 커뮤니티 지원을 통해 Open WebUI는 오픈 소스 AI 인터페이스 분야의 선도적인 솔루션이 되고 있습니다.