【硬核实战】Mac mini M4 部署 OpenClaw + Ollama 本地大模型:从零到一打通飞书机器人

【硬核实战】Mac mini M4 部署 OpenClaw + Ollama 本地大模型:从零到一打通飞书机器人

文章目录

📅 前言随着 Mac mini M4 的发布,16GB 统一内存成为了本地跑 AI Agent 的绝佳土壤。本文将记录如何利用 OpenClaw 框架,配合 Ollama 运行的 Qwen 2.5 系列模型,通过 WebSocket 长连接 接入飞书,实现一个完全私有化、极速响应的个人助理。

一、 核心环境准备

硬件:Apple Mac mini M4 (16GB RAM)
系统:macOS Sequoia
模型后端:Ollama (运行 Qwen 2.5-7B)
Agent 框架:OpenClaw (v2026.3.2)
Node 版本:v24.14.0 (通过 nvm 管理)

二、 避坑指南:环境初始化在 Mac 终端部署时,首要解决的是权限与路径问题。

1. 终端常用快捷键* Control + C:强制停止当前运行的命令(如安装卡死时)。

  • sudo:以管理员身份运行。若遇到权限不足,在指令前加 sudo 即可。

2. Node.js 环境修复若遇到 zsh: command not found: openclaw,说明 NVM 路径未加载。

3. 临时加载环境

source ~/.nvm/nvm.sh && nvm use 24 

4. 永久写入配置

echo 'export NVM_DIR="$HOME/.nvm"\n[ -s "$NVM_DIR/nvm.sh" ] && \. "$NVM_DIR/nvm.sh"' >> ~/.zshrc && source ~/.zshrc 

三、 模型选择:M4 性能调优

针对 16GB 内存,我测试了不同参数量的模型:

  1. Qwen 2.5-14B:逻辑极强,但占用约 9GB 显存,响应稍慢。
  2. DeepSeek-R1-8B:推理能力卓越,但对 OpenClaw 的 Tools (函数调用) 兼容性一般。
  3. Qwen 2.5-7B (推荐):秒回速度,完美支持自动化工具协议,是 M4 下的最佳平衡点。

安装命令:

ollama run qwen2.5:7b 

四、 OpenClaw 配置手术 (JSON 详解)

手动编辑 ~/.openclaw/openclaw.json 是解决配置报错的最快方式。
关键配置项说明:

  • baseUrl: 必须指向 http://127.0.0.1。
  • appSecret: 飞书后台的真实密钥(非 cli_ 开头)。

tools.profile: 设置为 minimal 或 none 以减少小模型工具调用的报错。

在这里插入图片描述

最终稳定版配置参考:

{ "models": { "providers": { "custom-127-0-0-1-11434": { "baseUrl": "http://127.0.0.1", "apiKey": "ollama", "api": "openai-completions", "models": [{ "id": "qwen2.5:7b", "reasoning": false }] } } }, "agents": { "defaults": { "model": { "primary": "custom-127-0-0-1-11434/qwen2.5:7b" } } }, "channels": { "feishu": { "enabled": true, "appId": "cli_xxxxxxxx", "appSecret": "xxxxxxxxxxxx", "connectionMode": "websocket" } }, "gateway": { "port": 18789, "mode": "local" } } 

五、 飞书机器人接入:最后的临门一脚

很多同学卡在“机器人已上线但不回复”,请务必检查飞书后台:

  1. 启用机器人:在“应用功能”中确认开启。
  2. 事件订阅:必须添加 接收消息 (im.message.receive_v1) 事件。
  3. WebSocket 模式:在“事件订阅”中开启 WebSocket 模式。

版本发布:改了权限或事件后,必须创建新版本并点击“申请上线”,否则改动不生效!

在这里插入图片描述

六、 运行与调试

启动网关并观察日志:

启动 Gateway

openclaw gateway --allow-unconfigured 

第一次发消息需授权 (Pairing)

openclaw pairing approve feishu [验证码] 
在这里插入图片描述

当日志出现 [ws] ws client ready 时,你的 M4 机器人就已经正式“活”过来了。

在这里插入图片描述

💡 结语

通过 OpenClaw 与本地模型的结合,我们成功让 Mac mini M4 变成了一个 7x24 小时在线的智能助理,当然目前本地部署的7b模型还是远远不够的,后续可以使用付费token提升模型智力
Q&A:

  • Q: 为什么报错 400: deepseek does not support tools?
  • A: 推理模型暂时无法处理 OpenClaw 的 JSON 函数调用格式,建议将 tools.profile 改为 minimal 或换用 Qwen 模型。

如果你也拥有一台 M4 Mac,不妨按此指南尝试部署,开启你的本地 Agent 之旅!

Read more

【GitHub开源AI精选】WhisperX:70倍实时语音转录、革命性词级时间戳与多说话人分离技术

【GitHub开源AI精选】WhisperX:70倍实时语音转录、革命性词级时间戳与多说话人分离技术

系列篇章💥 No.文章1【GitHub开源AI精选】LLM 驱动的影视解说工具:Narrato AI 一站式高效创作实践2【GitHub开源AI精选】德国比勒费尔德大学TryOffDiff——高保真服装重建的虚拟试穿技术新突破3【GitHub开源AI精选】哈工大(深圳)& 清华力作 FilmAgent:剧本自动生成 + 镜头智能规划,开启 AI 电影制作新时代4【GitHub开源AI精选】Lumina - Image 2.0 文生图模型,以小参数量实现高分辨率多图生成新突破5【GitHub开源AI精选】探索 Mobile-Agent:X-PLUG 推出的创新型移动智能操作代理6【GitHub开源AI精选】吴恩达团队开源VisionAgent:用自然语言开启计算机视觉新时代7【GitHub开源AI精选】Oumi:一站式AI开发平台,涵盖训练、评估与部署全流程8【GitHub开源AI精选】深入剖析RealtimeSTT:开源实时语音转文本库的强大功能与应用9【GitHub开源AI精选】PodAgent:多智能体协作播客生成框架,

By Ne0inhk

Qwen3-32B开源模型落地:Clawdbot平台支持模型切换、多版本共存方案

Qwen3-32B开源模型落地:Clawdbot平台支持模型切换、多版本共存方案 1. 为什么需要Qwen3-32B在Clawdbot中落地 很多团队在用AI聊天平台时都会遇到一个现实问题:模型能力跟不上业务需求。比如老版本模型回答不够专业、逻辑容易断裂,或者对中文长文本理解力不足。Qwen3-32B作为通义千问最新发布的开源大模型,参数量达320亿,支持128K上下文,在中文理解、代码生成、多轮对话和复杂推理上都有明显提升。 但光有好模型还不够——得能真正用起来。Clawdbot作为一个轻量级、可私有部署的Chat平台,本身不绑定特定模型,而是通过标准化接口对接后端推理服务。这次整合Qwen3-32B,不是简单“换一个模型”,而是构建了一套可切换、可共存、可灰度验证的模型管理机制。你不需要停服、不用改前端、甚至不用重启服务,就能在多个大模型之间自由切换,还能让不同用户或不同业务线使用不同版本的Qwen3。 这背后的关键,是把模型部署、API网关、代理路由和平台配置四层能力解耦开,每一层都保持独立演进空间。 2. 整体架构设计:从Ollama到Clawdbot的直连链路

By Ne0inhk

DownGit:GitHub精准下载神器,三步搞定文件夹打包下载

DownGit:GitHub精准下载神器,三步搞定文件夹打包下载 【免费下载链接】DownGitgithub 资源打包下载工具 项目地址: https://gitcode.com/gh_mirrors/dow/DownGit 还在为下载GitHub单个文件夹而苦恼吗?传统方式需要克隆整个仓库,既耗时又浪费流量。DownGit作为专业的GitHub资源下载工具,能够精准定位并打包任意文件夹,让下载过程变得简单高效。这款GitHub文件夹下载神器完美解决了开发者的痛点,实现精准下载的同时保持完整的文件结构。 🎯 为什么你需要DownGit? 在日常开发和学习中,我们经常遇到只需要GitHub项目中某个特定文件夹的情况。传统方法需要下载整个仓库,不仅占用大量存储空间,还增加了不必要的等待时间。DownGit的出现彻底改变了这一局面,让GitHub资源获取变得轻松自如。 📦 核心功能亮点 精准定位下载 * 智能解析:自动识别GitHub链接中的仓库路径和分支信息 * 目录保持:下载的文件夹保持原有的目录结构 * 文件完整:确保所有子文件和配置文件都被完整打包

By Ne0inhk

Git下载GitHub项目卡住?使用清华镜像代理地址快速获取

Git下载GitHub项目卡住?使用清华镜像代理地址快速获取 在人工智能与深度学习迅猛发展的今天,开发者几乎每天都在与开源项目打交道。无论是研究新算法、复现论文,还是搭建生产环境,我们常常需要从 GitHub 上克隆大型代码仓库——比如 TensorFlow、PyTorch 或 Hugging Face 的生态工具。然而,一个令人头疼的现实是:在国内直接通过 git clone 下载这些项目时,动辄卡在“Receiving objects”阶段,甚至连接超时失败。 这不仅浪费时间,更严重影响开发节奏。尤其是在 CI/CD 流水线中,一次拉取失败可能导致整个构建流程中断。你有没有试过为了克隆一个项目等上半小时,最后却以 RPC failed; curl 18 transfer closed 告终? 其实,这个问题早有成熟解决方案:利用国内高校提供的开源镜像服务,将 GitHub 请求重定向至高速本地节点。

By Ne0inhk