Open WebUI عبارة عن منصة ذكاء اصطناعي ذاتية الاستضافة قابلة للتطوير وغنية بالميزات وسهلة الاستخدام، مصممة للتشغيل الكامل دون اتصال بالإنترنت. وهي تدعم مجموعة متنوعة من مشغلات LLM، مثل Ollama وواجهات برمجة تطبيقات متوافقة مع OpenAI، ومحرك استدلال RAG مدمج، مما يجعلها حلاً قويًا لنشر الذكاء الاصطناعي.
:ollama
و :cuda
لدعم احتياجات النشر المختلفة# تثبيت Open WebUI
pip install open-webui
# تشغيل Open WebUI
open-webui serve
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda
docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
Open WebUI عبارة عن منصة ذكاء اصطناعي ذاتية الاستضافة شاملة وسهلة الاستخدام، وهي مناسبة بشكل خاص للمستخدمين الذين يحتاجون إلى حماية الخصوصية وتخصيص الوظائف والتحكم الكامل. سواء للاستخدام الشخصي أو النشر المؤسسي، يمكن أن يوفر تجربة تفاعل ذكاء اصطناعي قوية ومرنة. من خلال نظام المكونات الإضافية الغني والدعم المجتمعي المستمر، أصبح Open WebUI حلاً رائدًا في مجال واجهات الذكاء الاصطناعي مفتوحة المصدر.