引言
本教程将详细介绍如何在 Ubuntu 系统上部署 Ollama,并通过 Open WebUI 实现本地大语言模型的图形化管理。部署完成后,你可以在本地运行如 DeepSeek-Coder 或 CodeLlama 等模型,并通过 Web 界面进行交互,享受私有化、低延迟的推理体验。
系统要求
- 操作系统:Ubuntu 20.04 或更高版本
- 内存:至少 8GB RAM(推荐 16GB 及以上)
- 显卡:NVIDIA GPU(可选),无显卡时可通过 CPU 运行
- 依赖软件:Docker、Git
安装步骤
3.1 安装 Docker 和 Docker Compose
首先安装运行 Open WebUI 容器所需的 Docker 环境:
sudo apt update
sudo apt install docker.io docker-compose -y
安装完成后,验证版本信息:
docker --version
docker-compose --version
3.2 配置 Docker 权限
若执行 Docker 命令时提示 permission denied while trying to connect to the Docker daemon socket,需将当前用户加入 docker 用户组:
sudo usermod -aG docker $USER
newgrp docker
随后重启 Docker 服务使配置生效:
sudo systemctl restart docker
3.3 安装 Ollama
Ollama 是本地大模型推理引擎,提供标准 API 供外部调用。执行官方一键安装脚本:
curl -fsSL https://ollama.com/install.sh | sh
3.4 启动 Ollama 服务
安装完成后,启动 Ollama 服务:
ollama serve &
该命令将在后台启动服务,默认监听 11434 端口。
3.5 拉取模型
根据需求拉取本地模型,例如:
ollama pull deepseek-coder:instruct
ollama pull codellama:13b-instruct
3.6 部署 Open WebUI
使用 Docker 拉取并运行 Open WebUI 容器,通过环境变量指定 Ollama API 地址:
docker run -d -p 3000:8080 --name open-webui --restart always -e OLLAMA_API_BASE_URL=http://localhost:11434/api ghcr.io/open-webui/open-webui:main

