OpenClaw + Qwen本地大模型部署教程:Mac上打造零Token成本的AI助手

作为一个每天和Token账单打交道的人,我一直渴望真正的“调用自由”。上一篇文章我们讲了Ollama通用方案,这次聚焦通义千问(Qwen)系列——从Qwen2.5到最新的Qwen3.5,如何在Mac上完美运行,并与OpenClaw无缝对接。本文将提供完整的配置代码、硬件选型指南和避坑方案,让你彻底告别Token焦虑。

一、为什么选择Qwen系列本地部署?

1.1 Qwen的核心优势

通义千问(Qwen)是阿里云开源的大语言模型系列,在中文理解、代码生成和推理能力上表现优异。最新发布的Qwen3.5系列更是首个原生视觉-语言模型家族,支持多模态理解,在TAU2-Bench评测中得分86.7。

特性Qwen系列优势
中文能力原生中文训练,理解和生成远超国外开源模型
模型规格从0.6B到235B全覆盖,适配各种硬件
量化支持Ollama提供多种量化版本(Q4_0/Q8_0等),内存友好
上下文长度最高支持128K-256K token,处理长文档无压力
多模态能力Qwen3.5支持图像理解,可处理截图、图片等

1.2 Mac硬件选型指南

在Mac上跑Qwen,内存(统一内存)是决定性因素。以下是基于实测的硬件建议:

Mac内存推荐模型及量化文件大小适用场景
8GBQwen2.5 7B (Q4_0) / Qwen3 4B (Q4_0)4-5GB轻量对话、文件整理、基础问答
16GBQwen2.5 7B (Q8_0) / Qwen3.5 9B (Q4_0)5-9GB复杂推理、代码生成、中等上下文
24-32GBQwen3.5 14B (Q4_0) / 35B (Q4_0)8-18GB长文本处理、多模态任务、专业应用
64GB+Qwen3 72B (Q4_0) / 235B MoE37GB+科研、全场景覆盖
小知识:量化版本中,Q4_0是4-bit量化,文件最小、速度最快,适合内存有限的设备;Q8_0是8-bit量化,在速度和精度间取得平衡。

二、Ollama部署Qwen全流程

2.1 安装Ollama

# 使用Homebrew安装(推荐) brew install ollama # 或从官网下载安装包# 访问 https://ollama.com/download 下载macOS版本# 启动Ollama服务(后台运行) ollama serve # 验证安装 ollama --version# 应显示 0.5.0 或更高

设置开机自启

# 将Ollama添加到登录项# 系统设置 → 通用 → 登录项 → 点击"+"添加Ollama

2.2 下载Qwen模型

Ollama支持全系列Qwen模型,包括最新的Qwen2.5和Qwen3.5。

# 查看可用Qwen模型列表 ollama list |grep qwen # 下载Qwen2.5 7B(中文能力强,推荐) ollama pull qwen2.5:7b-instruct-q4_0 # 约4.1GB# 下载Qwen2.5 14B(需要16GB+内存) ollama pull qwen2.5:14b-instruct-q4_0 # 约8.2GB# 下载Qwen3.5 9B("小钢炮",平衡之选) ollama pull qwen3.5:9b-instruct-q4_0 # 约5.3GB# 下载Qwen3.5 35B(需要24GB+内存,支持多模态) ollama pull qwen3.5:35b-instruct-q4_0 # 约20GB# 验证下载 ollama list 

模型选择建议

  • 16GB Mac:首选qwen2.5:7b-instruct-q4_0qwen3.5:9b-instruct-q4_0
  • 32GB Mac:可以考虑qwen2.5:14b-instruct-q4_0
  • 需要多模态:选qwen3.5:35b-instruct-q4_0(需足够内存)

2.3 测试模型运行

# 直接在终端对话 ollama run qwen2.5:7b-instruct-q4_0 # 输入测试问题>>> 介绍一下通义千问模型的特点 >>> /bye # 退出# 测试Ollama的OpenAI兼容APIcurl http://localhost:11434/v1/chat/completions \-H"Content-Type: application/json"\-d'{ "model": "qwen2.5:7b-instruct-q4_0", "messages": [{"role": "user", "content": "你好,请做个自我介绍"}], "stream": false }'

如果返回正常,说明Ollama服务已经就绪。

三、OpenClaw安装与配置

3.1 安装OpenClaw

OpenClaw需要Node.js 22或更高版本。

# 1. 检查Node.js版本node--version# 如果低于22,需要升级# 2. 使用nvm安装Node.js 22(推荐)curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.0/install.sh |bash."$HOME/.nvm/nvm.sh" nvm install22 nvm use 22# 3. 配置npm国内镜像(加速安装)npm config set registry https://registry.npmmirror.com # 4. 全局安装OpenClawnpminstall-g openclaw@latest # 5. 验证安装 openclaw --version# 应显示 2026.3.x 或更高

3.2 初始化OpenClaw

# 执行初始化向导 openclaw onboard 

按照提示完成基础配置:

步骤选项说明
安全提示Yes确认理解使用风险
Onboarding modeQuickStart快速开始模式
Model/auth providerSkip for now稍后手动配置Ollama
Select channelSkip for now暂不配置消息渠道
Configure skillsNo后续按需安装

3.3 启动OpenClaw服务

# 启动网关服务 openclaw gateway start # 生成访问令牌(用于Web控制台登录) openclaw token generate # 复制输出的token,保存备用# 访问Web控制台# 浏览器打开 http://127.0.0.1:18789/?token=你的Token

四、OpenClaw对接Ollama Qwen(核心步骤)

4.1 配置文件方式(推荐)

OpenClaw通过配置文件~/.openclaw/openclaw.json管理所有设置。我们需要添加Ollama作为模型提供商。

# 编辑配置文件vim ~/.openclaw/openclaw.json 

将以下配置内容粘贴进去(注意替换API Key占位符):

{"meta":{"lastTouchedVersion":"2026.3.1"},"models":{"mode":"merge","providers":{"ollama":{"baseUrl":"http://localhost:11434/v1","apiKey":"ollama",// Ollama不需要真实API Key,但不能为空"api":"openai-completions","models":[{"id":"qwen2.5:7b-instruct-q4_0","name":"Qwen2.5 7B (本地)","reasoning":false,"input":["text"],"contextWindow":32768,"maxTokens":8192},{"id":"qwen3.5:9b-instruct-q4_0","name":"Qwen3.5 9B (本地)","reasoning":false,"input":["text"],"contextWindow":128000,"maxTokens":32768}]}},"ollama/qwen2.5:7b-instruct-q4_0":{"priority":1,"default":true}},"agents":{"defaults":{"model":{"primary":"ollama/qwen2.5:7b-instruct-q4_0"},"models":{"ollama/qwen2.5:7b-instruct-q4_0":{},"ollama/qwen3.5:9b-instruct-q4_0":{}}}},"gateway":{"mode":"local","auth":{"mode":"token","token":"你的token"// 替换为openclaw token generate生成的token}}}

配置要点

  • baseUrl必须是http://localhost:11434/v1,这是Ollama的OpenAI兼容接口地址
  • apiKey可以任意填写,但不能为空
  • models数组中列出你下载的所有Qwen模型
  • contextWindow根据模型实际能力填写(Qwen2.5支持32K,Qwen3.5支持128K)
  • ollama/模型ID对象中设置默认模型

4.2 保存并重启

# 保存文件后,重启OpenClaw网关 openclaw gateway restart # 检查配置是否生效 openclaw models list # 应该显示已配置的Qwen模型,并标注default

4.3 Web控制台配置方式(备选)

如果你更习惯图形界面,也可以通过Web控制台配置:

  1. 访问 http://127.0.0.1:18789/?token=你的Token
  2. 左侧菜单选择 配置 → RAW
  3. 在编辑器中粘贴上述JSON配置
  4. 点击 Save 保存,再点击 Update 应用

4.4 验证集成是否成功

方法一:Web控制台对话

  • 在聊天框输入:“你好,请介绍一下你自己”
  • 如果回复中包含"通义千问"或"Qwen"相关描述,说明对接成功

方法二:命令行测试

# 进入命令行交互模式 openclaw tui # 输入测试指令 你用的是哪个模型? 帮我列出当前目录下的文件 

方法三:查看Ollama模型状态

# 查看当前运行的模型 ollama ps# 应该显示qwen2.5:7b-instruct-q4_0正在运行

五、高级配置:多模型混合架构

5.1 同时配置多个Qwen版本

你可以在配置文件中添加多个模型,根据需要切换:

"models":{"providers":{"ollama":{"baseUrl":"http://localhost:11434/v1","apiKey":"ollama","models":[{"id":"qwen2.5:7b-instruct-q4_0","name":"Qwen2.5 7B"},{"id":"qwen2.5:14b-instruct-q4_0","name":"Qwen2.5 14B"},{"id":"qwen3.5:9b-instruct-q4_0","name":"Qwen3.5 9B"},{"id":"qwen3.5:35b-instruct-q4_0","name":"Qwen3.5 35B"}]}}}

在对话中可以通过指令切换模型:

切换到 Qwen3.5 35B 用 Qwen2.5 14B 帮我写一段代码 

5.2 本地+云端混合模式

对于偶尔需要的复杂任务,可以配置阿里云百炼API作为备用:

"providers":{"ollama":{// 本地Ollama配置},"bailian":{"baseUrl":"https://dashscope.aliyuncs.com/compatible-mode/v1","apiKey":"你的阿里云百炼API Key","api":"openai-completions","models":[{"id":"qwen3.5-plus","name":"Qwen3.5 Plus (云端)"},{"id":"qwen3-coder","name":"Qwen Coder (云端)"}]}}

成本优化策略

  • 日常任务:本地Qwen模型(零成本)
  • 复杂推理/长文本:切换云端Qwen-plus(按量付费)
  • 代码任务:使用Qwen Coder专用模型

5.3 为Qwen3.5开启多模态能力

如果你下载了Qwen3.5的多模态版本(如qwen3.5:35b),可以通过以下方式使用图像理解:

// 在模型配置中添加image输入支持{"id":"qwen3.5:35b-instruct-q4_0","name":"Qwen3.5 35B (多模态)","reasoning":false,"input":["text","image"],// 关键:声明支持图像输入"contextWindow":256000,"maxTokens":65536}

使用方式:在对话中上传图片,输入“这张图里有什么?”即可。

六、性能优化与问题排查

6.1 Mac性能优化技巧

1. 确保Ollama使用GPU加速

M系列芯片的GPU对推理加速明显:

# 查看Ollama日志,确认Metal是否启用 ollama serve --verbose# 设置环境变量强制使用GPUexportOLLAMA_NUM_GPU=999 ollama serve 

2. 限制CPU核心数(防止影响其他应用)

exportOLLAMA_NUM_THREADS=4# 限制使用4个CPU核心 ollama serve 

3. 减少内存占用

如果内存紧张,可以选择更小的量化版本:

# Q2_K是更激进的量化,内存占用更低 ollama pull qwen2.5:7b-instruct-q2_k 

6.2 常见问题及解决方案

问题现象解决方案
模型未找到OpenClaw提示"model not found"ollama list确认模型名称,配置文件中ID必须完全匹配
连接拒绝ECONNREFUSED http://localhost:11434/v1确认Ollama服务是否运行:ollama ps;重启:ollama serve
响应为空模型返回空内容检查配置中reasoning是否为false,Qwen不支持reasoning模式
速度慢推理速度低于预期检查是否使用GPU:ollama ps查看Processor列;关闭其他占用内存的应用
内存不足模型加载失败换更小的模型或量化版本;使用ollama stop 模型名释放内存
多模态失效上传图片后模型不理解确认模型支持多模态(如35b版本);检查配置中input是否包含image

6.3 常用管理命令

# Ollama相关 ollama list # 查看已下载模型 ollama ps# 查看正在运行的模型 ollama stop 模型名 # 停止指定模型 ollama rm 模型名 # 删除模型# OpenClaw相关 openclaw status # 查看服务状态 openclaw gateway restart # 重启网关 openclaw models list # 查看可用模型 openclaw logs # 查看日志

七、实战:让Qwen帮你干活

7.1 安装实用技能

# 安装文件管理技能 openclaw plugins install @openclaw/file-manager # 安装系统控制技能 openclaw plugins install @openclaw/system-ctl # 安装联网搜索技能(需申请Exa API Key) openclaw plugins install exa-search 

7.2 日常任务示例

场景指令示例说明
文件整理「把下载文件夹里所有PDF按日期归类到子文件夹」自动整理
代码编写「用Python写一个快速排序函数,添加详细注释」代码生成
内容总结「总结这份周报的核心内容」(上传文件)长文本处理
系统监控「查看当前CPU和内存使用情况」调用系统命令
多模态理解「这张截图里有什么问题?」(上传截图)Qwen3.5视觉能力

八、总结:零成本AI助手的价值

通过OpenClaw + Ollama + Qwen的组合,你可以在Mac上获得一个完全免费、数据私有、离线可用的强大AI助手。

8.1 核心收益

  • 零Token成本:无限次调用,彻底告别API账单
  • 数据完全私有:所有对话、文件处理都在本地
  • 离线可用:飞机上、咖啡馆断网也能用
  • 中文友好:Qwen原生中文理解,效果优于同规模国外模型
  • 灵活扩展:支持多模型切换、技能插件、多模态输入

8.2 硬件投入产出

以16GB Mac为例:

  • 一次性投入:已有设备(零新增成本)
  • 运行成本:电费(约0.1元/天)
  • 相比云端API:每天100次对话可节省200-300元/月

8.3 下一步探索

  • 模型微调:用MLX框架在Mac上微调Qwen,打造专属模型
  • 接入消息渠道:配置飞书/Telegram,实现移动端调用
  • 自动化工作流:结合cron定时任务,让AI自动执行重复工作

参考资料

Read more

安装 启动 使用 Neo4j的超详细教程

安装 启动 使用 Neo4j的超详细教程

最近在做一个基于知识图谱的智能生成项目。需要用到Neo4j图数据库。写这篇文章记录一下Neo4j的安装及其使用。 一.Neo4j的安装 1.首先安装JDK,配环境变量。(参照网上教程,很多) Neo4j是基于Java的图形数据库,运行Neo4j需要启动JVM进程,因此必须安装JAVA SE的JDK。从Oracle官方网站下载 Java SE JDK。我使用的版本是JDK1.8 2.官网上安装neo4j。 官方网址:https://neo4j.com/deployment-center/  在官网上下载对应版本。Neo4j应用程序有如下主要的目录结构: bin目录:用于存储Neo4j的可执行程序; conf目录:用于控制Neo4j启动的配置文件; data目录:用于存储核心数据库文件; plugins目录:用于存储Neo4j的插件; 3.配置环境变量 创建主目录环境变量NEO4J_HOME,并把主目录设置为变量值。复制具体的neo4j文件地址作为变量值。 配置文档存储在conf目录下,Neo4j通过配置文件neo4j.conf控制服务器的工作。默认情况下,不需

企业微信群机器人Webhook配置全攻略:从创建到发送消息的完整流程

企业微信群机器人Webhook配置全攻略:从创建到发送消息的完整流程 在数字化办公日益普及的今天,企业微信作为国内领先的企业级通讯工具,其群机器人功能为团队协作带来了极大的便利。本文将手把手教你如何从零开始配置企业微信群机器人Webhook,实现自动化消息推送,提升团队沟通效率。 1. 准备工作与环境配置 在开始创建机器人之前,需要确保满足以下基本条件: * 企业微信账号:拥有有效的企业微信管理员或成员账号 * 群聊条件:至少包含3名成员的群聊(这是创建机器人的最低人数要求) * 网络环境:能够正常访问企业微信服务器 提示:如果是企业管理员,建议先在"企业微信管理后台"确认机器人功能是否已对企业开放。某些企业可能出于安全考虑会限制此功能。 2. 创建群机器人 2.1 添加机器人到群聊 1. 打开企业微信客户端,进入目标群聊 2. 点击右上角的群菜单按钮(通常显示为"..."或"⋮") 3. 选择"添加群机器人"选项 4.

Flowise物联网融合:与智能家居设备联动的应用设想

Flowise物联网融合:与智能家居设备联动的应用设想 1. Flowise:让AI工作流变得像搭积木一样简单 Flowise 是一个真正把“AI平民化”落地的工具。它不像传统开发那样需要写几十行 LangChain 代码、配置向量库、调试提示词模板,而是把所有这些能力打包成一个个可拖拽的节点——就像小时候玩乐高,你不需要懂塑料怎么合成,只要知道哪块该拼在哪,就能搭出一座城堡。 它诞生于2023年,短短一年就收获了45.6k GitHub Stars,MIT协议开源,意味着你可以放心把它用在公司内部系统里,甚至嵌入到客户交付的产品中,完全不用担心授权问题。最打动人的不是它的技术多炫酷,而是它真的“不挑人”:产品经理能搭出知识库问答机器人,运营同学能配出自动抓取竞品文案的Agent,连刚学Python两周的实习生,也能在5分钟内跑通一个本地大模型的RAG流程。 它的核心逻辑很朴素:把LangChain里那些抽象概念——比如LLM调用、文档切分、向量检索、工具调用——变成画布上看得见、摸得着的方块。你拖一个“Ollama LLM”节点,再拖一个“Chroma Vector

OpenClaw配置Bot接入飞书机器人+Kimi2.5

OpenClaw配置Bot接入飞书机器人+Kimi2.5

上一篇文章写了Ubuntu_24.04下安装OpenClaw的过程,这篇文档记录一下接入飞书机器+Kimi2.5。 准备工作 飞书 创建飞书机器人 访问飞书开放平台:https://open.feishu.cn/app,点击创建应用: 填写应用名称和描述后就直接创建: 复制App ID 和 App Secret 创建成功后,在“凭证与基础信息”中找到 App ID 和 App Secret,把这2个信息复制记录下来,后面需要配置到openclaw中 配置权限 点击【权限管理】→【开通权限】 或使用【批量导入/导出权限】,选择导入,输入以下内容,如下图 点击【下一步,确认新增权限】即可开通所需要的权限。 配置事件与回调 说明:这一步的配置需要先讲AppId和AppSecret配置到openclaw成功之后再设置订阅方式,