Ollama 与 Open WebUI 本地部署实战
在本地运行大语言模型(LLM)已成为许多开发者的首选,既能保护数据隐私,又能降低 API 成本。Ollama 提供了便捷的命令行工具来管理这些模型,而 Open WebUI 则能提供一个友好的浏览器界面进行交互。
快速开始:运行模型
安装好 Ollama 后,直接在终端输入命令即可拉取并运行模型。这里以 Qwen3 系列为例,不同参数量适合不同的硬件环境:
ollama run qwen3:0.6b
对于算力稍强的机器,可以尝试更大版本:
ollama run qwen3:1.7b
ollama run qwen3:4b
模型管理
随着使用深入,可能需要清理不再需要的模型文件以释放磁盘空间。Ollama 支持通过 CLI 灵活管理。
删除单个模型
如果只想移除特定模型,使用 rm 命令指定名称即可。操作前建议先列出已安装的模型确认名称和版本:
ollama list
示例输出会显示模型 ID、大小及修改时间:
NAME ID SIZE MODIFIED
deepseek-r1:8b 28f8fd6cdc67 4.9 GB 10 hours ago
qwen2.5-3b:latest fe5cd25d719e 2.1 GB 24 hours ago
确认无误后执行删除:
ollama rm deepseek-r1:8b
系统会返回 deleted 'deepseek-r1:8b' 表示成功。
批量清理所有模型
若需彻底清空本地缓存,可结合管道命令一次性处理。这步操作不可逆,请谨慎执行:
ollama list | awk '{print $1}' | xargs -I {} ollama rm {}
该脚本会自动获取所有模型名称并逐一删除。
彻底卸载 Ollama
如果决定不再使用 Ollama,除了删除软件包,还需手动清理残留的数据目录,否则可能占用大量空间。
1. 终止服务进程 卸载前务必停止后台服务,避免文件被占用:
- Linux/macOS:
pkill ollama - Windows:
Stop-Process -Name "ollama" -Force
2. 删除数据目录 Ollama 默认将模型和数据存储在用户主目录下:
- Linux/macOS:
rm -rf ~/.ollama - Windows:
手动删除
C:\Users\<用户名>\.ollama文件夹。
3. 卸载软件包 根据不同操作系统选择对应命令:
- :



