ollama 模型管理、删除模型 、open-webui 开启大模型交互

ollama 模型管理、删除模型 、open-webui 开启大模型交互
0-9


文章目录

ollama 基本信息

  • https://ollama.com/
1-001
ollama 运行模型
命令行执行即可

0.6B parameter model

ollama run qwen3:0.6b 

1.7B parameter model

ollama run qwen3:1.7b 

4B parameter model

ollama run qwen3:4b 

ollama 模型管理

要删除 Ollama 中的本地模型,可以通过命令行工具(CLI)或 API 操作。以下是具体步骤和注意事项:

🔧 方法一:使用命令行删除单个模型

删除指定模型
使用 ollama rm <模型名称> 命令删除目标模型:

ollama rm deepseek-r1:8b

输出deleted 'deepseek-r1:8b'

查看已安装模型列表
运行以下命令确认模型名称和版本:

ollama list

示例输出

NAME ID SIZE MODIFIED deepseek-r1:8b28f8fd6cdc674.9 GB 10 hours ago qwen2.5-3b:latest fe5cd25d719e 2.1 GB 24 hours ago 

⚙️ 方法二:批量删除所有模型

若需清理全部模型,可结合命令一次性删除:

ollama list |awk'{print $1}'|xargs -I {} ollama rm{}
  • 作用:自动获取所有模型名称并逐一删除。
  • 注意:此操作不可逆,需谨慎使用!

🗑️ 方法三:彻底卸载 Ollama(含所有数据)

如果不再需要 Ollama,可完全卸载并清理残留文件:

  1. 卸载软件
  2. 删除数据目录
      • Windows:C:\Users\<用户名>\.ollama
      • macOS/Linux:~/.ollama

所有系统:手动删除 Ollama 的数据存储目录:

rm -rf ~/.ollama # Linux/macOS

Linux

sudorm /usr/local/bin/ollama sudorm -rf /usr/share/ollama 

macOS (Homebrew)

brew uninstall ollama 

Windows

winget uninstall ollama 

⚠️ 注意事项

  1. 模型恢复
    删除后模型无法恢复,需重新通过 ollama pull 下载。

缓存清理
若曾通过 Hugging Face 独立下载模型,需额外清理缓存:

rm -rf ~/.cache/huggingface/hub/models--deepseek-ai* 

服务状态
删除模型前无需停止 Ollama 服务,但卸载软件前需终止相关进程:

pkill ollama # macOS/Linux Stop-Process -Name "ollama" -Force # Windows

验证是否删除成功

  • 运行 ollama list,若无输出则说明所有模型已清除。
  • 检查磁盘空间:删除后原模型占用的空间(如 4.9GB)应被释放。

open-webui 安装 开启大模型交互

open-webui pip 安装
conda activate base pip install open-webui 
open-webui 启动服务
open-webui serve --port 8082
浏览器访问 http://IP:8082/ :
  • http://IP:8082/
  • 邮箱注册账号,即可通过 open-webui 开启大模型交互
1-001

❤️ 时不我待,一起学AI


9-9

Read more

AI时代的内容创作:从代码到认知的范式转移

AI时代的内容创作:从代码到认知的范式转移

✨道路是曲折的,前途是光明的! 📝 专注C/C++、Linux编程与人工智能领域,分享学习笔记! 🌟 感谢各位小伙伴的长期陪伴与支持,欢迎文末添加好友一起交流! * 前言:技术变革的双重面向 * 一、AI内容创作技术架构解析 * 1.1 整体技术流程 * 1.2 核心技术模块 * 二、实战代码:构建轻量级AI创作助手 * 2.1 基础配置类 * 2.2 提示词模板引擎 * 2.3 AI客户端实现 * 2.4 内容创作助手主类 * 2.5 使用示例 * 三、流式响应处理的实现细节 * 3.1 SSE数据解析器 * 四、质量检测与内容优化 * 4.1 简易质量检测实现 * 五、AI时代创作者的成长路径 * 5.1

By Ne0inhk
无线联邦学习:在保护隐私的无线网络中,让AI协同进化

无线联邦学习:在保护隐私的无线网络中,让AI协同进化

🔥作者简介: 一个平凡而乐于分享的小比特,中南民族大学通信工程专业研究生,研究方向无线联邦学习 🎬擅长领域:驱动开发,嵌入式软件开发,BSP开发 ❄️作者主页:一个平凡而乐于分享的小比特的个人主页 ✨收录专栏:无线通信技术,本专栏介绍无线通信相关技术 欢迎大家点赞 👍 收藏 ⭐ 加关注哦!💖💖 无线联邦学习:在保护隐私的无线网络中,让AI协同进化 一、什么无线联邦学习? 想象这样一个场景:全国各地的医院都想联合训练一个AI模型来诊断疾病,但患者的医疗数据极其敏感,不能离开医院。传统方法是把所有数据集中到一个中心服务器,但这会造成隐私泄露风险。怎么办? 无线联邦学习就像一位“知识快递员”——它不收集原始数据,而是让各地的医院在本地训练模型,然后只把模型“更新心得”(梯度或参数)通过无线网络传给中心服务器,由服务器汇总大家的智慧,形成一个更强大的模型。 核心思想 * 数据不动模型动:原始数据永远留在本地设备 * 仅上传模型更新:只传输学习到的参数,而非数据本身 * 无线传输媒介:通过Wi-Fi、5G等无线网络进行通信 本地设备3 本地设备2 本地设

By Ne0inhk
小白也能玩 OpenClaw?ToDesk AI桌面助手ToClaw 把门槛打到了零

小白也能玩 OpenClaw?ToDesk AI桌面助手ToClaw 把门槛打到了零

一、开篇 最近"小龙虾"彻底火出圈了。打开抖音、刷刷小红书,满屏都是 OpenClaw 的教程、测评和安装实录。更夸张的是,有人专门上门帮人部署,甚至有公司门口排起了长队——就为了装一只"龙虾"。 这波热度不亚于当年 ChatGPT 刚出来的时候。但热闹背后,有一个问题没人说清楚:这么多人在排队,到底在排什么?排的是环境配置、是服务器、是 API Key、是一堆看不懂的命令行。原生 OpenClaw 能力确实强,但它本质上是一个开源框架,想真正跑起来,你得先过技术这关。对普通用户来说,光是部署这一步,就足够劝退了。 所以问题来了——龙虾这么香,普通人就真的没办法吃到吗? 还真不一定。ToDesk 悄悄做了一件事,把这只龙虾"

By Ne0inhk
AI时代人人都是产品经理:落地流程:AI 核心功能,从需求到上线的全流程管控方法

AI时代人人都是产品经理:落地流程:AI 核心功能,从需求到上线的全流程管控方法

AI的普及正在重构产品经理的工作模式——不再依赖传统的跨部门协作瓶颈,AI可以成为产品经理的"全职助手",覆盖需求分析、原型设计、开发协同、测试验证全流程。本文将拆解AI时代产品核心功能从0到1落地的完整管控方法,让你用AI能力提升300%的落地效率。 一、需求阶段:AI辅助的需求挖掘与标准化 需求是产品的起点,AI可以帮你从海量信息中精准定位用户真实需求,避免"伪需求"浪费资源。 1. 需求挖掘:AI辅助用户洞察 传统需求调研依赖问卷、访谈,效率低且样本有限。AI可以通过以下方式快速完成用户洞察: * 结构化处理非结构化数据:用AI分析用户在社交媒体、客服对话、应用评论中的碎片化反馈,自动提炼高频需求点 * 需求优先级排序:基于KANO模型,AI可以自动将需求划分为基础型、期望型、兴奋型、无差异型四类,输出优先级列表 实战工具与示例: 使用GPT-4+Python脚本批量处理应用商店评论: import openai import pandas as

By Ne0inhk