ollama 模型管理、删除模型 、open-webui 开启大模型交互

ollama 模型管理、删除模型 、open-webui 开启大模型交互
0-9


文章目录

ollama 基本信息

  • https://ollama.com/
1-001
ollama 运行模型
命令行执行即可

0.6B parameter model

ollama run qwen3:0.6b 

1.7B parameter model

ollama run qwen3:1.7b 

4B parameter model

ollama run qwen3:4b 

ollama 模型管理

要删除 Ollama 中的本地模型,可以通过命令行工具(CLI)或 API 操作。以下是具体步骤和注意事项:

🔧 方法一:使用命令行删除单个模型

删除指定模型
使用 ollama rm <模型名称> 命令删除目标模型:

ollama rm deepseek-r1:8b

输出deleted 'deepseek-r1:8b'

查看已安装模型列表
运行以下命令确认模型名称和版本:

ollama list

示例输出

NAME ID SIZE MODIFIED deepseek-r1:8b28f8fd6cdc674.9 GB 10 hours ago qwen2.5-3b:latest fe5cd25d719e 2.1 GB 24 hours ago 

⚙️ 方法二:批量删除所有模型

若需清理全部模型,可结合命令一次性删除:

ollama list |awk'{print $1}'|xargs -I {} ollama rm{}
  • 作用:自动获取所有模型名称并逐一删除。
  • 注意:此操作不可逆,需谨慎使用!

🗑️ 方法三:彻底卸载 Ollama(含所有数据)

如果不再需要 Ollama,可完全卸载并清理残留文件:

  1. 卸载软件
  2. 删除数据目录
      • Windows:C:\Users\<用户名>\.ollama
      • macOS/Linux:~/.ollama

所有系统:手动删除 Ollama 的数据存储目录:

rm -rf ~/.ollama # Linux/macOS

Linux

sudorm /usr/local/bin/ollama sudorm -rf /usr/share/ollama 

macOS (Homebrew)

brew uninstall ollama 

Windows

winget uninstall ollama 

⚠️ 注意事项

  1. 模型恢复
    删除后模型无法恢复,需重新通过 ollama pull 下载。

缓存清理
若曾通过 Hugging Face 独立下载模型,需额外清理缓存:

rm -rf ~/.cache/huggingface/hub/models--deepseek-ai* 

服务状态
删除模型前无需停止 Ollama 服务,但卸载软件前需终止相关进程:

pkill ollama # macOS/Linux Stop-Process -Name "ollama" -Force # Windows

验证是否删除成功

  • 运行 ollama list,若无输出则说明所有模型已清除。
  • 检查磁盘空间:删除后原模型占用的空间(如 4.9GB)应被释放。

open-webui 安装 开启大模型交互

open-webui pip 安装
conda activate base pip install open-webui 
open-webui 启动服务
open-webui serve --port 8082
浏览器访问 http://IP:8082/ :
  • http://IP:8082/
  • 邮箱注册账号,即可通过 open-webui 开启大模型交互
1-001

❤️ 时不我待,一起学AI


9-9

Read more

写文章用哪个AI?2025年AI写作工具终极指南

写文章用哪个AI?2025年AI写作工具终极指南

写文章用哪个AI?2025年AI写作工具终极指南 前言:当你盯着空白文档时,AI正在盯着你 相信每个写作者都经历过这样的时刻:deadline如达摩克利斯之剑悬在头顶,Word文档里却只有一个闪烁的光标在嘲笑你的才华枯竭。这时候,你可能会想:“要是有个AI能帮我写就好了。” 好消息是,2025年的今天,AI写作工具已经从"能用"进化到"好用",甚至"离不开"的程度。坏消息是,选择太多也是一种甜蜜的负担。 一、主流AI写作工具横向对比 1. Claude(Anthropic)—— 学术派的温柔巨人 核心优势: * 长文本处理能力:支持20万+tokens的上下文,能一次性处理约15万字的内容 * 逻辑连贯性:在长篇文章写作中表现出色,结构清晰,论证严密 * 安全性高:内容审核严格,适合正式场合使用 适用场景: * 学术论文、研究报告 * 长篇商业文档

2026最火的6款免费AI写作软件测评:ai写网文哪个好用?这款ai消痕工具

2026最火的6款免费AI写作软件测评:ai写网文哪个好用?这款ai消痕工具

很多朋友想在业余时间写写番茄、起点网文或者搞搞短剧赚点外快,但总是卡在“憋不出字”或者“大纲写崩”上。现在都2026年了,用ai写作软件来辅助写小说早就不是秘密了。 但是,网文平台的审核越来越严,很多新手直接用AI生成的文章发出去,立马就被平台判定为“AI生成”导致限流,不仅没流量,连全勤奖都拿不到。 今天,我们就抛开那些晦涩难懂的技术术语,用大白话给大家实测目前市面上热度最高的6款免费ai写作平台。到底ai写网文哪家强?怎么解决让人头疼的“机器味”?这篇超详细的避坑指南,建议想靠文字搞钱的朋友直接收藏! 一、 6大热门免费AI小说工具优缺点大盘点 我们选了大家最常搜的几款工具,直接看它们在实际写小说、写剧本时的真实表现。 1. 豆包:起名和找灵感的“点子王” * 优点:速度飞快,完全免费。你如果卡文了,或者不知道主角叫什么、书名怎么起才能吸引人,直接问豆包,它能一秒钟给你吐出几十个极其符合抖音、小红书调性的网感标题和名字。 * 缺点:千万别让它直接给你写正文!它的AI味太重了,动不动就是“嘴角勾起一抹弧度”、“倒吸一口凉气”。把这种文发到小说平台,

8卡RTX 5090服务器llama.cpp测试

8 卡 RTX 5090 服务器 完整安装及性能调优指南  8卡RTX 5090服务器 从 NVIDIA驱动安装 → CUDA环境 → llama.cpp编译 → 多GPU测试 的完整、可直接执行流程(基于Ubuntu 22.04 LTS,适配Blackwell架构)。 一、系统与硬件准备(必做) 1.1 系统要求 • 推荐:Ubuntu 22.04 LTS(64位) • 内核:6.8+ HWE内核(5090必须高内核) • 禁用:Nouveau开源驱动(与NVIDIA驱动冲突) 1.2 硬件检查 Bash # 查看8张5090是否被识别 lspci | grep -i nvidia

lingbot-depth-vitl14企业应用指南:机器人避障系统中替代高精度LiDAR的降本方案

lingbot-depth-vitl14企业应用指南:机器人避障系统中替代高精度LiDAR的降本方案 想让你的机器人“看”得更远、更准,又不想为昂贵的激光雷达买单?今天,我们就来聊聊一个能帮你省下大笔硬件成本的技术方案——lingbot-depth-vitl14深度估计模型。 简单来说,这个模型能让你的机器人用普通的RGB摄像头,就“猜”出周围环境的深度信息,实现精准避障。它就像一个给机器人安装的“空间感知大脑”,把二维的彩色画面,转换成三维的距离地图。 对于企业而言,这意味着什么?意味着你可以用几百块的摄像头,去实现过去需要几万甚至十几万激光雷达才能做到的部分功能。这不仅仅是省钱,更是为机器人、自动驾驶、AR/VR等应用打开了低成本、高性能的新大门。 接下来,我会带你深入了解这个模型,看看它如何在机器人避障这个核心场景中,真正落地并创造价值。 1. 为什么机器人避障需要深度信息? 在聊技术方案之前,我们先得搞清楚一个基本问题:机器人是怎么“看见”并避开障碍物的? 想象一下,你蒙着眼睛在房间里走路,很容易撞到桌子椅子。机器人也一样,它需要知道“前面有没有东西”以及“那个