Open WebUI 快速部署与 Ollama 集成
镜像拉取
推荐使用官方镜像地址:
docker pull ghcr.io/open-webui/open-webui:v0.6.9
前置准备
确保 Ollama 服务已在另一台机器上运行,并对外开放端口 11434。需配置防火墙允许外部访问该端口。
连接测试
在 Open WebUI 所在机器上测试 Ollama 接口连通性:
curl http://YOUR_SERVER_IP:11434/api/tags
若返回包含模型列表的 JSON 数据,则说明连接正常。
启动 Open WebUI
使用以下命令启动容器,将环境变量 OLLAMA_BASE_URL 指向 Ollama 服务地址:
sudo docker run -d -p 3000:8080 \
-e OLLAMA_BASE_URL=http://YOUR_SERVER_IP:11434 \
-v open-webui:/app/backend/data \
--name web \
--restart always \
ghcr.io/open-webui/open-webui:v0.6.9
验证结果
启动完成后,通过浏览器访问服务地址(默认端口 3000),即可连接到 Ollama 上的模型并进行对话。详细文档请参考 Open WebUI 官方文档。


