OpenWebUI安装 - qNFCpの屋
qNFCpの屋
April 27, 2025

Open-WebUI 部署相关步骤

目录

[TOC]

介绍

Open WebUI是一个可扩展、功能丰富且注重用户友好的自托管AI平台,旨在完全实现离线运行AI应用。它支持各种LLM运行框架,如Ollama、LM Stdio等。以及支持与OpenAI兼容的API。并且内置RAG推理引擎,使其成为一个强大的AI部署解决方案。

部署方案

本部署方案基于官方推荐的Docker部署方案修订制成。

安装

使用Docker部署基于Ollama引擎的open-webui。
(如需手动进行更新,请修改镜像为对应的最新版本号,例如 ghcr.io/open-webui/open-webui:v0.6.2)

发布页:https://github.com/open-webui/open-webui/releases

包发布页:https://github.com/open-webui/open-webui/pkgs/container/open-webui

  • 如后续手动更新
sudo docker run -d -p 3000:8080 -e ENABLE_OPENAI_API=0 -e OLLAMA_BASE_URL=http://192.168.22.173:11434 -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:v{最新版本号}
  • 如后续自动更新
sudo docker run -d -p 3000:8080 -e ENABLE_OPENAI_API=0 -e OLLAMA_BASE_URL=http://192.168.22.173:11434 -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

文件储存

  • 文件被映射到一个命名卷中,目录为 /var/lib/docker/volumes/open-webui/
  • 数据通常在其下的 _data目录中

升级

手动升级

1' 拉取最新容器

docker pull ghcr.io/open-webui/open-webui:v{新版本号}

2' 停止运行容器

docker stop open-webui

3' 删除当前容器

docker rm open-webui

4' 运行新容器

  • 如后续手动更新
sudo docker run -d -p 3000:8080 -e ENABLE_OPENAI_API=0 -e OLLAMA_BASE_URL=http://192.168.22.173:11434 -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:v{新版本号}

5' 删除旧版本镜像

docker rmi ghcr.io/open-webui/open-webui:v{旧版本号}

自动升级

自动升级仅需部署一次,后续会自动进行版本更新。

  1. 部署watchtower每300秒检测一次Open WebUI容器的更新
docker run -d --name watchtower \
  --volume /var/run/docker.sock:/var/run/docker.sock \
  containrrr/watchtower -i 300 open-webui

参考

官方文档

暂无评论

添加新评论

Title - Artist
0:00