Ollama 模型管理与 Open WebUI 本地部署
在本地运行大语言模型(LLM)时,Ollama 提供了便捷的命令行接口,而 Open WebUI 则能带来类似 ChatGPT 的交互体验。下面整理了一些常用操作和部署步骤。
运行模型
直接在终端执行 ollama run 即可加载并运行模型。根据硬件配置选择合适的参数量:
# 0.6B 参数模型
ollama run qwen2.5:0.6b
# 1.7B 参数模型
ollama run qwen2.5:1.7b
# 4B 参数模型
ollama run qwen2.5:4b
模型管理
清理本地模型通常通过 CLI 完成。这里分三种场景处理:单模型删除、批量清理以及彻底卸载。
删除指定模型
使用 rm 命令移除特定模型版本:
ollama rm deepseek-r1:8b
执行后看到 deleted 'deepseek-r1:8b' 即表示成功。如果不确定模型名称,可以先列出当前环境:
ollama list
输出示例会显示模型 ID、大小及修改时间,方便确认目标。
批量删除所有模型
如果需要清空所有缓存模型,可以组合管道命令一次性处理。注意这步不可逆,请谨慎操作:
ollama list | awk '{print $1}' | xargs -I {} ollama rm {}
该脚本会自动提取所有模型名称并逐个删除。
彻底卸载 Ollama
若不再需要该服务,除了停止进程外,还需手动清理数据目录,避免残留占用空间。
1. 停止服务
不同系统终止进程的命令略有差异:
# macOS / Linux
pkill ollama
# Windows
Stop-Process -Name "ollama" -Force
2. 删除数据目录
Ollama 默认将模型文件存储在用户主目录下:
- Linux/macOS:
~/.ollama - Windows:
C:\Users\<用户名>\.ollama
执行清理命令(以 Linux/macOS 为例):
rm -rf ~/.ollama
3. 卸载软件包
根据安装方式选择对应命令:
# Linux (apt/yum 等)
sudo rm /usr/local/bin/ollama
sudo rm -rf /usr/share/ollama
brew uninstall ollama
winget uninstall ollama


