ollama 模型管理与删除、open-webui 部署大模型交互
ollama 提供本地大模型运行与管理功能,支持通过命令行拉取、运行及删除模型。本文介绍 ollama 模型管理的三种方法(单删、批量删、彻底卸载),涵盖 Windows、macOS 和 Linux 系统差异,涉及命令指令及系统文件清理。同时演示如何通过 pip 安装 open-webui 实现图形化大模型交互界面,包括服务启动与浏览器访问配置,帮助用户快速搭建本地大模型环境。操作需注意删除不可逆及服务状态确认。

ollama 提供本地大模型运行与管理功能,支持通过命令行拉取、运行及删除模型。本文介绍 ollama 模型管理的三种方法(单删、批量删、彻底卸载),涵盖 Windows、macOS 和 Linux 系统差异,涉及命令指令及系统文件清理。同时演示如何通过 pip 安装 open-webui 实现图形化大模型交互界面,包括服务启动与浏览器访问配置,帮助用户快速搭建本地大模型环境。操作需注意删除不可逆及服务状态确认。



命令行执行即可。
0.6B parameter model
ollama run qwen3:0.6b
1.7B parameter model
ollama run qwen3:1.7b
4B parameter model
ollama run qwen3:4b
要删除 Ollama 中的本地模型,可以通过命令行工具(CLI)或 API 操作。以下是具体步骤和注意事项:
删除指定模型
使用 ollama rm <模型名称> 命令删除目标模型:
ollama rm deepseek-r1:8b
输出:deleted 'deepseek-r1:8b'
查看已安装模型列表 运行以下命令确认模型名称和版本:
ollama list
示例输出:
NAME ID SIZE MODIFIED
deepseek-r1:8b 28f8fd6cdc67 4.9 GB 10 hours ago
qwen2.5-3b:latest fe5cd25d719e 2.1 GB 24 hours ago
若需清理全部模型,可结合命令一次性删除:
ollama list | awk '{print $1}' | xargs -I {} ollama rm {}
如果不再需要 Ollama,可完全卸载并清理残留文件:
卸载软件
winget uninstall ollamabrew uninstall ollamasudo rm /usr/local/bin/ollama && sudo rm -rf /usr/share/ollama删除数据目录
C:\Users\<用户名>\.ollama~/.ollama所有系统:手动删除 Ollama 的数据存储目录:
rm -rf ~/.ollama # Linux/macOS
模型恢复
删除后模型无法恢复,需重新通过 ollama pull 下载。
缓存清理 若曾通过 Hugging Face 独立下载模型,需额外清理缓存:
rm -rf ~/.cache/huggingface/hub/models--deepseek-ai*
pkill ollama # macOS/Linux
Stop-Process -Name "ollama" -Force # Windows
ollama list,若无输出则说明所有模型已清除。conda activate base
pip install open-webui
open-webui serve --port 8082


微信公众号「极客日志」,在微信中扫描左侧二维码关注。展示文案:极客日志 zeeklog
生成新的随机RSA私钥和公钥pem证书。 在线工具,RSA密钥对生成器在线工具,online
基于 Mermaid.js 实时预览流程图、时序图等图表,支持源码编辑与即时渲染。 在线工具,Mermaid 预览与可视化编辑在线工具,online
解析常见 curl 参数并生成 fetch、axios、PHP curl 或 Python requests 示例代码。 在线工具,curl 转代码在线工具,online
将字符串编码和解码为其 Base64 格式表示形式即可。 在线工具,Base64 字符串编码/解码在线工具,online
将字符串、文件或图像转换为其 Base64 表示形式。 在线工具,Base64 文件转换器在线工具,online
将 Markdown(GFM)转为 HTML 片段,浏览器内 marked 解析;与 HTML转Markdown 互为补充。 在线工具,Markdown转HTML在线工具,online