Ollama 本地大模型部署与管理
Ollama 是运行本地大模型的利器,支持多种量化模型。除了直接运行,掌握模型管理和界面交互同样重要。
快速运行模型
命令行即可启动不同参数量级的模型,例如:
ollama run qwen3:0.6b
根据需求选择合适版本,如 1.7B、4B 等参数模型。
模型管理实操
清理本地模型通常通过 CLI 完成,操作前建议确认当前环境。
删除指定模型
使用 rm 命令移除特定模型文件:
ollama rm deepseek-r1:8b
执行后若看到 deleted 'deepseek-r1:8b' 提示,说明删除成功。可通过以下命令查看已安装列表:
ollama list
示例输出会显示模型名称、ID、大小及修改时间。
批量清理所有模型
如果需要彻底清空缓存,可以组合命令一键处理:
ollama list | awk '{print $1}' | xargs -I {} ollama rm {}
注意:此操作不可逆,请确保不再需要这些模型后再执行。
彻底卸载 Ollama
若决定不再使用,需同时清理软件和数据目录。
- 停止服务:卸载前务必终止进程。
pkill ollama # macOS/Linux Stop-Process -Name "ollama" -Force # Windows - 删除数据目录:
- Linux/macOS:
rm -rf ~/.ollama - Windows:手动删除
C:\Users\<用户名>\.ollama
- Linux/macOS:
- 移除程序文件:
- Linux:
sudo rm /usr/local/bin/ollama && sudo rm -rf /usr/share/ollama - macOS (Homebrew):
brew uninstall ollama - Windows:
winget uninstall ollama
- Linux:
此外,如果曾通过 Hugging Face 独立下载过模型,建议额外清理缓存:
rm -rf ~/.cache/huggingface/hub/models--deepseek-ai*
Open-WebUI 交互界面搭建
命令行交互虽快,但 WebUI 更适合日常对话和调试。
安装与启动
推荐使用 Conda 环境隔离依赖:
conda activate base
pip install open-webui
启动服务并指定端口:
open-webui serve --port 8082


