【硬核实战】Mac mini M4 部署 OpenClaw + Ollama 本地大模型:从零到一打通飞书机器人

【硬核实战】Mac mini M4 部署 OpenClaw + Ollama 本地大模型:从零到一打通飞书机器人

文章目录

📅 前言随着 Mac mini M4 的发布,16GB 统一内存成为了本地跑 AI Agent 的绝佳土壤。本文将记录如何利用 OpenClaw 框架,配合 Ollama 运行的 Qwen 2.5 系列模型,通过 WebSocket 长连接 接入飞书,实现一个完全私有化、极速响应的个人助理。

一、 核心环境准备

硬件:Apple Mac mini M4 (16GB RAM)
系统:macOS Sequoia
模型后端:Ollama (运行 Qwen 2.5-7B)
Agent 框架:OpenClaw (v2026.3.2)
Node 版本:v24.14.0 (通过 nvm 管理)

二、 避坑指南:环境初始化在 Mac 终端部署时,首要解决的是权限与路径问题。

1. 终端常用快捷键* Control + C:强制停止当前运行的命令(如安装卡死时)。

  • sudo:以管理员身份运行。若遇到权限不足,在指令前加 sudo 即可。

2. Node.js 环境修复若遇到 zsh: command not found: openclaw,说明 NVM 路径未加载。

3. 临时加载环境

source ~/.nvm/nvm.sh && nvm use 24 

4. 永久写入配置

echo 'export NVM_DIR="$HOME/.nvm"\n[ -s "$NVM_DIR/nvm.sh" ] && \. "$NVM_DIR/nvm.sh"' >> ~/.zshrc && source ~/.zshrc 

三、 模型选择:M4 性能调优

针对 16GB 内存,我测试了不同参数量的模型:

  1. Qwen 2.5-14B:逻辑极强,但占用约 9GB 显存,响应稍慢。
  2. DeepSeek-R1-8B:推理能力卓越,但对 OpenClaw 的 Tools (函数调用) 兼容性一般。
  3. Qwen 2.5-7B (推荐):秒回速度,完美支持自动化工具协议,是 M4 下的最佳平衡点。

安装命令:

ollama run qwen2.5:7b 

四、 OpenClaw 配置手术 (JSON 详解)

手动编辑 ~/.openclaw/openclaw.json 是解决配置报错的最快方式。
关键配置项说明:

  • baseUrl: 必须指向 http://127.0.0.1。
  • appSecret: 飞书后台的真实密钥(非 cli_ 开头)。

tools.profile: 设置为 minimal 或 none 以减少小模型工具调用的报错。

在这里插入图片描述

最终稳定版配置参考:

{ "models": { "providers": { "custom-127-0-0-1-11434": { "baseUrl": "http://127.0.0.1", "apiKey": "ollama", "api": "openai-completions", "models": [{ "id": "qwen2.5:7b", "reasoning": false }] } } }, "agents": { "defaults": { "model": { "primary": "custom-127-0-0-1-11434/qwen2.5:7b" } } }, "channels": { "feishu": { "enabled": true, "appId": "cli_xxxxxxxx", "appSecret": "xxxxxxxxxxxx", "connectionMode": "websocket" } }, "gateway": { "port": 18789, "mode": "local" } } 

五、 飞书机器人接入:最后的临门一脚

很多同学卡在“机器人已上线但不回复”,请务必检查飞书后台:

  1. 启用机器人:在“应用功能”中确认开启。
  2. 事件订阅:必须添加 接收消息 (im.message.receive_v1) 事件。
  3. WebSocket 模式:在“事件订阅”中开启 WebSocket 模式。

版本发布:改了权限或事件后,必须创建新版本并点击“申请上线”,否则改动不生效!

在这里插入图片描述

六、 运行与调试

启动网关并观察日志:

启动 Gateway

openclaw gateway --allow-unconfigured 

第一次发消息需授权 (Pairing)

openclaw pairing approve feishu [验证码] 
在这里插入图片描述

当日志出现 [ws] ws client ready 时,你的 M4 机器人就已经正式“活”过来了。

在这里插入图片描述

💡 结语

通过 OpenClaw 与本地模型的结合,我们成功让 Mac mini M4 变成了一个 7x24 小时在线的智能助理,当然目前本地部署的7b模型还是远远不够的,后续可以使用付费token提升模型智力
Q&A:

  • Q: 为什么报错 400: deepseek does not support tools?
  • A: 推理模型暂时无法处理 OpenClaw 的 JSON 函数调用格式,建议将 tools.profile 改为 minimal 或换用 Qwen 模型。

如果你也拥有一台 M4 Mac,不妨按此指南尝试部署,开启你的本地 Agent 之旅!

Read more

DeepSeek、Kimi、笔灵谁最好用?5款网文作者亲测的AI写作神器横评

DeepSeek、Kimi、笔灵谁最好用?5款网文作者亲测的AI写作神器横评

作为在网文圈一路摸爬滚打过来的我,面对“AI写小说”这个现象,心情其实挺复杂的。 这有点像工业革命时期的纺织工人看着蒸汽机——恐惧是真的,但效率的碾压也是真的。 不是纯用AI生成,而是用AI搭建了极其高效的“外挂工作流”。 有人用它日更两万字,有人用它把废稿救活。 当然,不是纯用AI生成,而是用AI搭建了极其高效的“外挂工作流”。为了不让大家白给工具交学费,我实测了市面上十几款软件,挑出了这5款真正能嵌入小说创作流的“神器”。 1️⃣ DeepSeek:除了逻辑强,它还很懂中式网文 适合人群: 玄幻、仙侠、古言作者,以及看重文章设定和逻辑的人。 直通车:https://www.deepseek.com/ 很多人吹DeepSeek的逻辑和代码能力,但在写小说上,它有一个小众的用法是做体系。 👉 独家用法: 你可以用它来写“设定集”和“功法体系”。你可以参考图片中我的指令来和它对话: 它吐出来的东西,特有那味,既有传统网文的爽感,又有你指令里要的感觉。所以虽然它的逻辑能力也在线,但你也不要忽略了它在描写和设定生成上的亮点!

GitHub Copilot 使用笔记

GitHub Copilot 是 VSCode 自带的 AI Agent 插件,需要登录 GitHub 账号使用,分为免费版和付费版。 关于个人额度,可以在 Github 的 Copilot 菜单里查看 支持模型 添加第三方模型 通过 Manage Models 选中对应厂商。 可以通过 OpenRouter 来导入免费的模型,需要先到 OpenRouter 注册 API Key,输入后即可使用,也可以使用兼容 OpenAI 接口的三方 API,比如 硅基流动 SiliconFlow 使用帮助信息 切换到 Ask 模式,输入 /help 即可获取帮助命令,可以查看当前有什么可用命令和使用方法。 翻译后的内容,方便查看,

ChatGPT降AIGC率指令实战指南:从原理到最佳实践

AIGC率:一个开发者必须面对的质量指标 最近在项目里用ChatGPT这类大模型生成内容时,总被一个词困扰——AIGC率。简单来说,它衡量的是生成内容与模型训练数据中已有内容的相似度,或者说“机器味儿”有多浓。对于开发者而言,高AIGC率不仅意味着内容可能缺乏新意、流于模板化,在严肃的应用场景(如知识输出、创意写作、代码生成)中,更可能引发原创性不足、甚至潜在的合规风险。因此,学会通过指令(Prompt)有效控制AIGC率,从“能用”走向“用好”,成了我们进阶路上的必修课。 1. 高AIGC率问题的根源:为什么模型总在“复读”? 要解决问题,先要理解问题从何而来。大语言模型本质上是基于海量数据训练出的概率模型,其生成过程是预测下一个最可能的词元(Token)。这导致了几种常见的高AIGC率诱因: * 指令模糊或过于宽泛:当Prompt如“写一篇关于春天的文章”时,模型极易落入最常见的训练数据模式,产出千篇一律的套话。 * 缺乏具体约束与引导:没有提供独特的视角、具体的细节要求、期望的文体或情感基调,模型没有“

MusePublic Art Studio镜像免配置:开箱即用的开源AI绘画工具部署

MusePublic Art Studio镜像免配置:开箱即用的开源AI绘画工具部署 1. 为什么这款AI绘画工具值得你立刻试试? 你有没有过这样的体验:看到别人用AI生成惊艳画作,自己也想动手,却卡在第一步——安装、配置、环境报错、显存不足……折腾半天,连界面都没打开。 MusePublic Art Studio 就是为解决这个问题而生的。 它不是又一个需要你敲几十行命令、改七八个配置文件、查三天文档才能跑起来的项目。它是一台“拆箱即画”的数字画板:镜像已预装全部依赖,SDXL模型权重已内置,Streamlit前端已就绪,GPU加速已调优。你只需要执行一条命令,刷新浏览器,就能开始创作。 这不是概念演示,也不是简化版玩具——它背后是完整的 Stable Diffusion XL 架构,支持 1024×1024 高清输出、负向提示词过滤、种子锁定、CFG 精细调控等专业能力。但所有这些,都被藏在了一层极简的“