ollama 模型管理、删除模型 、open-webui 开启大模型交互

ollama 模型管理、删除模型 、open-webui 开启大模型交互
0-9


文章目录

ollama 基本信息

  • https://ollama.com/
1-001
ollama 运行模型
命令行执行即可

0.6B parameter model

ollama run qwen3:0.6b 

1.7B parameter model

ollama run qwen3:1.7b 

4B parameter model

ollama run qwen3:4b 

ollama 模型管理

要删除 Ollama 中的本地模型,可以通过命令行工具(CLI)或 API 操作。以下是具体步骤和注意事项:

🔧 方法一:使用命令行删除单个模型

删除指定模型
使用 ollama rm <模型名称> 命令删除目标模型:

ollama rm deepseek-r1:8b

输出deleted 'deepseek-r1:8b'

查看已安装模型列表
运行以下命令确认模型名称和版本:

ollama list

示例输出

NAME ID SIZE MODIFIED deepseek-r1:8b28f8fd6cdc674.9 GB 10 hours ago qwen2.5-3b:latest fe5cd25d719e 2.1 GB 24 hours ago 

⚙️ 方法二:批量删除所有模型

若需清理全部模型,可结合命令一次性删除:

ollama list |awk'{print $1}'|xargs -I {} ollama rm{}
  • 作用:自动获取所有模型名称并逐一删除。
  • 注意:此操作不可逆,需谨慎使用!

🗑️ 方法三:彻底卸载 Ollama(含所有数据)

如果不再需要 Ollama,可完全卸载并清理残留文件:

  1. 卸载软件
  2. 删除数据目录
      • Windows:C:\Users\<用户名>\.ollama
      • macOS/Linux:~/.ollama

所有系统:手动删除 Ollama 的数据存储目录:

rm -rf ~/.ollama # Linux/macOS

Linux

sudorm /usr/local/bin/ollama sudorm -rf /usr/share/ollama 

macOS (Homebrew)

brew uninstall ollama 

Windows

winget uninstall ollama 

⚠️ 注意事项

  1. 模型恢复
    删除后模型无法恢复,需重新通过 ollama pull 下载。

缓存清理
若曾通过 Hugging Face 独立下载模型,需额外清理缓存:

rm -rf ~/.cache/huggingface/hub/models--deepseek-ai* 

服务状态
删除模型前无需停止 Ollama 服务,但卸载软件前需终止相关进程:

pkill ollama # macOS/Linux Stop-Process -Name "ollama" -Force # Windows

验证是否删除成功

  • 运行 ollama list,若无输出则说明所有模型已清除。
  • 检查磁盘空间:删除后原模型占用的空间(如 4.9GB)应被释放。

open-webui 安装 开启大模型交互

open-webui pip 安装
conda activate base pip install open-webui 
open-webui 启动服务
open-webui serve --port 8082
浏览器访问 http://IP:8082/ :
  • http://IP:8082/
  • 邮箱注册账号,即可通过 open-webui 开启大模型交互
1-001

❤️ 时不我待,一起学AI


9-9

Read more

前端学习日记 - 前端函数防抖详解

前端学习日记 - 前端函数防抖详解

前端函数防抖详解 * 为什么使用防抖 * 函数防抖的应用场景 * 函数防抖原理与手写实现 * 原理 * 手写实现 * 使用 Lodash 的 \_.debounce * 完整示例:防抖搜索组件 * 结语 在现代 Web 应用中,函数防抖(debounce)是一种常见且高效的性能优化手段,用于限制高频事件触发下的函数调用次数,从而减少不必要的计算、网络请求或 DOM 操作。本文将从“为什么使用防抖”切入,介绍典型的应用场景,深入解析防抖原理,并给出从零实现到在实际项目中使用 Lodash 的完整代码示例,帮助你快速掌握前端防抖技术。 为什么使用防抖 函数防抖的核心思想是在连续触发的事件停止后,仅执行最后一次调用,以避免频繁触发带来的性能问题 ([MDN Web Docs][1])。 在不使用防抖的情况下,例如在 input 输入事件或 window.resize 事件中直接调用逻辑,页面可能会因短时间内大量调用而出现卡顿或请求风暴 ([GeeksforGeeks]

AI结对编程实录:人机协作的边界与可能

AI结对编程实录:人机协作的边界与可能

👋 大家好,欢迎来到我的技术博客! 📚 在这里,我会分享学习笔记、实战经验与技术思考,力求用简单的方式讲清楚复杂的问题。 🎯 本文将围绕人工智能这个话题展开,希望能为你带来一些启发或实用的参考。 🌱 无论你是刚入门的新手,还是正在进阶的开发者,希望你都能有所收获! 文章目录 * AI结对编程实录:人机协作的边界与可能 * 引言:当键盘有了“第二双手” * 第一章:从辅助驾驶到副驾驶 * 1.1 场景:批量数据处理的“第一次尝试” * 1.2 反思:AI真的“理解”了吗? * 第二章:复杂逻辑的重构与架构 * 2.1 场景:将“面条式代码”改为状态机 * 2.2 架构图示:状态流转 * 第三章:调试(Debugging)——人与AI的博弈 * 3.1 场景:棘手的异步竞态条件

OpenClaw 配置教程:在 macOS 上搭建 AI 助手并与飞书集成

摘要 本文记录了在 macOS 系统上安装和配置 OpenClaw 的完整过程,包括: * OpenClaw 的安装与初始化 * Moonshot Kimi API 的配置 * 飞书(Feishu)机器人的接入 * 常见问题与解决方案 目录 1. 什么是 OpenClaw? 2. 环境准备 3. 安装 OpenClaw 4. 配置 Moonshot Kimi API 5. 接入飞书机器人 6. 配置详解 7. 使用技巧 8. 总结 1. 什么是 OpenClaw? OpenClaw 是一个开源的 AI 助手框架,可以将大语言模型(如 Kimi、GPT、

保姆级教程:OpenClaw 本地 AI 助手安装、配置与钉钉接入全流程

保姆级教程:OpenClaw 本地 AI 助手安装、配置与钉钉接入全流程

文章目录 * 保姆级教程:OpenClaw 本地 AI 助手安装、配置与钉钉接入全流程 * 🌟 引言 * 第一步:环境准备 * 1. 安装 Node.js * 2. 安装 Git * 第二步:安装 OpenClaw * 方式一:使用 npm 全局安装(通用推荐) * 方式二:Windows 快捷安装脚本 * 第三步:首次运行与初始化配置 (Onboard) * 1. 环境依赖检查 * 2. 向导配置流程 * 3. 网关启动与测试 * 第四步:进阶玩法——将 OpenClaw 接入钉钉机器人 * 1. 创建钉钉企业内部应用 * 2. 通过 npm 安装钉钉插件 * 3. 测试通道通讯