Ubuntu 20.04 本地部署 Ollama 及 Open WebUI 图形界面指南
随着本地算力提升,将大模型部署到个人设备已变得可行。借助 Ollama,开发者可以轻松在本地运行、管理和部署大型语言模型(如 Llama 3、Mistral、DeepSeek 等),实现无缝、私密且可定制的 AI 体验。
为什么选择本地部署?
在终端中直接与几十亿参数的大模型对话,意味着数据完全在本地处理,不会离开您的计算机。这对于处理敏感代码或商业数据至关重要。此外,一旦模型下载完成,即可离线使用,无需依赖 API 服务或担心网络波动。
当然,本地部署也有门槛:对内存(RAM)和显存(VRAM)要求较高,且模型能力取决于训练数据的时间点。但相比云端 API 的按次收费,本地方案在成本控制和隐私保护上优势明显。
环境准备
检查系统信息
确保系统是 Ubuntu 20.04 或更高版本,并预留至少十几 GB 的存储空间用于存放模型文件。
lsb_release -a
确认硬件资源
显存大小决定了能运行的模型参数量。建议先查看显卡状态:
nvidia-smi
安装 Ollama
1. 获取并运行安装脚本
访问官网或 GitHub 仓库获取最新安装包,直接运行以下命令一键安装:
curl -fsSL https://ollama.com/install.sh | sh
2. 管理服务
安装完成后,Ollama 会作为系统服务运行。常用管理命令如下:
# 启动服务
sudo systemctl start ollama
# 停止服务
sudo systemctl stop ollama
# 设置开机自启
sudo systemctl enable ollama
# 查看实时日志
sudo journalctl -u ollama -f
3. 常用命令速查
ollama --help:查看所有帮助信息ollama run <model-name>:运行模型(不存在则自动下载)ollama pull <model-name>:仅拉取模型ollama list:列出已下载的模型ollama rm <model-name>:删除指定模型
部署与运行模型
下载模型
通过命令行拉取模型,例如 DeepSeek R1 7B 版本:
ollama run deepseek-r1:7b
首次运行时会自动下载模型权重,后续启动将直接使用缓存。
交互与控制
进入交互模式后,您可以直接提问。支持以下控制命令:
/bye或Ctrl + D:退出对话/clear:清空上下文,开始新对话


