Ubuntu 25.04 私有化部署 Ollama + DeepSeek + OpenWebUI 实战
在本地构建完整的 AI 环境,Ollama 配合 DeepSeek 与 OpenWebUI 是一个高效且隐私友好的方案。本文基于 Ubuntu 25.04 Server 版,分享从环境准备到性能调优的完整流程,重点解决显存分配、容器网络及服务持久化等常见问题。
前置环境准备
推荐使用最小化安装的 Ubuntu 25.04 Server。硬件配置建议如下:
- CPU:4 核及以上(Intel i7+ 或 Ryzen 5+)
- 内存:32GB 以上(运行 32B 模型推荐)
- 显卡:NVIDIA RTX 3060 12GB+(显存越大越好)
- 存储:至少 100GB SSD 空间
系统优化方面,建议关闭自动更新以减少中断,并调整 Swappiness 以提升内存利用率:
# 禁用自动更新
sudo sed -i 's/Update-Package-Lists "1"/Update-Package-Lists "0"/g' /etc/apt/apt.conf.d/10periodic
# 调整 Swappiness 为 10
echo "vm.swappiness=10" | sudo tee /etc/sysctl.d/99-swappiness.conf
sudo sysctl -p
核心组件安装
1. Ollama 服务部署
Ollama 是本地大模型运行引擎。首先添加官方源并创建专用用户以增强安全性:
# 安装 Ollama
curl -fsSL https://ollama.com/install.sh | sh
# 创建专用系统用户
sudo useradd -r -s /bin/false -m -d /opt/ollama ollama
服务配置文件位于 /etc/systemd/system/ollama.service。以下是经过优化的版本,支持多卡负载均衡及自定义模型路径:
[Unit]
Description=Ollama Service
After=network-online.target
Requires=network-online.target
[Service]
ExecStart=/usr/bin/ollama serve
User=ollama
Group=ollama
Restart=on-failure
RestartSec=30s
StartLimitIntervalSec=60
StartLimitBurst=
=
=
=
=
=
=
=
=G
=G
=%
=multi-user.target


