ollama 模型管理、删除模型 、open-webui 开启大模型交互

ollama 模型管理、删除模型 、open-webui 开启大模型交互
0-9


文章目录

ollama 基本信息

  • https://ollama.com/
1-001
ollama 运行模型
命令行执行即可

0.6B parameter model

ollama run qwen3:0.6b 

1.7B parameter model

ollama run qwen3:1.7b 

4B parameter model

ollama run qwen3:4b 

ollama 模型管理

要删除 Ollama 中的本地模型,可以通过命令行工具(CLI)或 API 操作。以下是具体步骤和注意事项:

🔧 方法一:使用命令行删除单个模型

删除指定模型
使用 ollama rm <模型名称> 命令删除目标模型:

ollama rm deepseek-r1:8b

输出deleted 'deepseek-r1:8b'

查看已安装模型列表
运行以下命令确认模型名称和版本:

ollama list

示例输出

NAME ID SIZE MODIFIED deepseek-r1:8b28f8fd6cdc674.9 GB 10 hours ago qwen2.5-3b:latest fe5cd25d719e 2.1 GB 24 hours ago 

⚙️ 方法二:批量删除所有模型

若需清理全部模型,可结合命令一次性删除:

ollama list |awk'{print $1}'|xargs -I {} ollama rm{}
  • 作用:自动获取所有模型名称并逐一删除。
  • 注意:此操作不可逆,需谨慎使用!

🗑️ 方法三:彻底卸载 Ollama(含所有数据)

如果不再需要 Ollama,可完全卸载并清理残留文件:

  1. 卸载软件
  2. 删除数据目录
      • Windows:C:\Users\<用户名>\.ollama
      • macOS/Linux:~/.ollama

所有系统:手动删除 Ollama 的数据存储目录:

rm -rf ~/.ollama # Linux/macOS

Linux

sudorm /usr/local/bin/ollama sudorm -rf /usr/share/ollama 

macOS (Homebrew)

brew uninstall ollama 

Windows

winget uninstall ollama 

⚠️ 注意事项

  1. 模型恢复
    删除后模型无法恢复,需重新通过 ollama pull 下载。

缓存清理
若曾通过 Hugging Face 独立下载模型,需额外清理缓存:

rm -rf ~/.cache/huggingface/hub/models--deepseek-ai* 

服务状态
删除模型前无需停止 Ollama 服务,但卸载软件前需终止相关进程:

pkill ollama # macOS/Linux Stop-Process -Name "ollama" -Force # Windows

验证是否删除成功

  • 运行 ollama list,若无输出则说明所有模型已清除。
  • 检查磁盘空间:删除后原模型占用的空间(如 4.9GB)应被释放。

open-webui 安装 开启大模型交互

open-webui pip 安装
conda activate base pip install open-webui 
open-webui 启动服务
open-webui serve --port 8082
浏览器访问 http://IP:8082/ :
  • http://IP:8082/
  • 邮箱注册账号,即可通过 open-webui 开启大模型交互
1-001

❤️ 时不我待,一起学AI


9-9

Read more

详细教程:如何从前端查看调用接口、传参及返回结果(附带图片案例)

详细教程:如何从前端查看调用接口、传参及返回结果(附带图片案例)

目录 1. 打开浏览器开发者工具 2. 使用 Network 面板 3. 查看具体的API请求 a. Headers b. Payload c. Response d. Preview e. Timing 4. 实际操作步骤 5. 常见问题及解决方法 a. 无法看到API请求 b. 请求失败 c. 跨域问题(CORS) 作为一名后端工程师,理解前端如何调用接口、传递参数以及接收返回值是非常重要的。下面将详细介绍如何通过浏览器开发者工具(F12)查看和分析这些信息,并附带图片案例帮助你更好地理解。 1. 打开浏览器开发者工具 按下 F12 或右键点击页面选择“检查”可以打开浏览器的开发者工具。常用的浏览器如Chrome、Firefox等都内置了开发者工具。下面是我选择我的一篇文章,打开开发者工具进行演示。 2. 使用

本地部署太难?试试GLM-4.6V-Flash-WEB一键脚本

本地部署太难?试试GLM-4.6V-Flash-WEB一键脚本 你是不是也经历过:看到一个惊艳的视觉大模型,兴致勃勃点开文档,结果卡在第一步——环境装不起来、依赖报错、CUDA版本对不上、模型权重下到一半断连……最后关掉终端,默默打开浏览器搜“有没有现成能跑的镜像”。 别急,这次真有解法。 GLM-4.6V-Flash-WEB 不是又一个需要你手动编译、调参、debug三天的“科研玩具”。它从设计之初就瞄准了一个目标:让普通人也能在单张消费级显卡上,5分钟内跑通网页+API双模推理。没有复杂配置,不拼技术深度,只讲一件事——能不能立刻用起来。 本文不讲Transformer结构、不分析注意力头分布、不对比FLOPs数值。我们直接从你打开云服务器控制台那一刻开始写起:怎么点几下、敲三行命令、刷新一个页面,就能让模型看懂你上传的截图、表格、商品图,甚至手写笔记,并给出准确回答。 这才是真正面向工程落地的视觉大模型体验。 1. 为什么说“本地部署太难”是个伪命题? 先说个事实:90%的本地部署失败,

【Spring Boot开发实战手册】掌握Springboot开发技巧和窍门(十三)前端匹配界面、后端匹配WebSocket

【Spring Boot开发实战手册】掌握Springboot开发技巧和窍门(十三)前端匹配界面、后端匹配WebSocket

前言 在现代 Web 开发中,前端和后端的协作变得越来越重要,特别是在需要实时交互和数据更新的应用场景中。WebSocket 技术作为一种全双工通信协议,使得前端和后端之间的实时数据传输变得更加高效和稳定。本篇博客将会探讨如何设计和实现一个实时匹配系统,其中前端负责展示用户界面并与后端进行交互,而后端则通过 WebSocket 协议来处理数据通信。 前端 onMounted: 当组件被挂载的时候执行的函数 onUnmonted: 当组件被卸载的时候执行的函数 初步调试阶段,我们是将token传进user.id的 store/pk.js: import ModuleUser from'./user'exportdefault{state:{socket:null,//ws链接opponent_username:"",opponent_photo:"",status:"matching",//matching表示匹配界面,playing表示对战界面},getters:

从Web到全平台:Capacitor打包工具实战指南

作为前端开发者,你是否曾面临这样的困境:好不容易用React、Vue或Angular开发完Web应用,却被要求适配iOS和Android端?学习原生开发成本太高,找原生团队协作又耗时费力。今天要给大家介绍的Capacitor,正是解决这个痛点的利器——由Ionic团队打造的现代跨平台打包工具,能让Web开发者零原生基础也能构建全平台应用。 一、为什么选Capacitor?先看它的核心优势 在接触具体用法前,我们得先搞清楚:Capacitor凭什么成为Web转原生的优选?对比传统方案,它的优势太明显了: 1. 零框架侵入,适配所有Web项目 不同于某些强绑定框架的工具,Capacitor对前端技术栈完全无要求。不管你是用React写的管理系统、Vue开发的移动端页面,还是原生HTML/CSS/JS写的项目,都能直接接入打包。我曾把一个基于Vue3的官网快速打包成APP,整个过程没改一行业务代码。 2. 现代WebView加持,性能接近原生 Capacitor在iOS端采用WKWebView,Android端使用Chromium WebView,这俩都是各平台性能最优的Web