Ubuntu 20.04 本地部署 Ollama 及 Open WebUI 图形界面指南
在本地运行大型语言模型(LLM)已成为可能,借助 Ollama,开发者可以轻松将强大的模型部署在自己的计算机上,实现无缝、私密且可定制的 AI 体验。本文将带你一步步在 Ubuntu 20.04 系统上完成 Ollama 的安装与模型部署,并最终搭建美观易用的图形化界面(Open WebUI)。
Ollama 简介
Ollama 是一个开源项目,专为在本地运行、管理和部署大型语言模型(如 Llama 3、Mistral、Gemma 等)而设计。
它的核心优势非常清晰:
- 简单易用:通过简单的命令行工具,即可完成模型的下载(pull)、运行(run)和管理。一条命令就能启动与模型的对话。
- 丰富的模型库:它提供了官方支持的模型库,包含 deep-seek、qwen 等数十种经过优化的大型语言模型,满足从代码生成到创意写作的各种需求。
- 开箱即用:它自动处理了模型运行所需的大部分复杂配置和环境依赖,用户无需关心繁琐的底层细节。
本地部署的利弊分析
选择在本地运行 Ollama,意味着选择了一种新的 AI 交互方式,但它也并非完美无缺。
优势
- 数据隐私与安全:所有对话提示和模型生成的内容完全在本地处理,不会离开你的计算机。这对于处理敏感代码或商业数据的用户至关重要。
- 完全离线可用:一旦模型下载完成,无需依赖互联网连接或担心 API 服务宕机。
- 可定制性:可以尝试各种不同规模和专长的模型,甚至可以根据需要加载自定义模型(Modelfiles),灵活性远超固定的云端 API。
- 无使用成本:除了电费和硬件成本外,没有按次收费或订阅费用。
局限性
- 硬件要求高:对内存(RAM)和显存(VRAM)有较高要求。运行大型模型可能需要数十 GB 的资源。
- 性能差异:虽然本地推理延迟低,但模型能力和响应速度通常无法与顶级付费 API 相提并论。
- 知识陈旧:本地部署的模型知识库是静态的,取决于训练时间点,无法实时获取最新信息。
环境准备
设备检查
首先确认系统版本和硬件资源。
lsb_release -a

存储空间及显存
- 储存空间至少预留十几 G,因为一个模型的大小都在几个 G 左右。
- 检查显存大小,显存决定了能运行模型的参数量。
nvidia-smi

Ollama 安装与基础使用
1. 下载安装
访问官网或 GitHub 获取最新脚本。






