Mac mini M4 凭借统一内存优势,成为本地运行 AI Agent 的理想硬件。本文记录如何利用 OpenClaw 框架配合 Ollama 运行的 Qwen 2.5 系列模型,通过 WebSocket 长连接接入飞书,实现一个完全私有化、极速响应的个人助理。
核心环境准备
硬件:Apple Mac mini M4 (16GB RAM)
系统:macOS Sequoia
模型后端:Ollama (运行 Qwen 2.5-7B)
Agent 框架:OpenClaw (最新稳定版)
Node 版本:v20 LTS (通过 nvm 管理)
环境初始化与避坑
在 Mac 终端部署时,首要解决的是权限与路径问题。这里整理了一些常用操作和修复方案。
终端基础操作
Control + C:强制停止当前运行的命令(如安装卡死时)。sudo:以管理员身份运行。若遇到权限不足,在指令前加sudo即可。
Node.js 环境修复
若遇到 zsh: command not found: openclaw,通常说明 NVM 路径未加载到当前 Shell 会话中。
临时加载环境:
source ~/.nvm/nvm.sh && nvm use 20
永久写入配置:
echo 'export NVM_DIR="$HOME/.nvm"\n[ -s "$NVM_DIR/nvm.sh" ] && \.[ "$NVM_DIR/nvm.sh"' >> ~/.zshrc && source ~/.zshrc
模型选择:M4 性能调优
针对 16GB 内存,我测试了不同参数量的模型表现:
- Qwen 2.5-14B:逻辑极强,但占用约 9GB 显存,响应稍慢。
- DeepSeek-R1-8B:推理能力卓越,但对 OpenClaw 的 Tools (函数调用) 兼容性一般。
- Qwen 2.5-7B (推荐):秒回速度,完美支持自动化工具协议,是 M4 下的最佳平衡点。
安装命令:
ollama run qwen2.5:7b
OpenClaw 配置详解
手动编辑 ~/.openclaw/openclaw.json 是解决配置报错的最快方式。关键配置项说明如下:
baseUrl: 必须指向http://127.0.0.1。appSecret: 飞书后台的真实密钥(非 cli_ 开头)。tools.profile: 设置为minimal或none以减少小模型工具调用的报错。
最终稳定版配置参考:
{
"models": {
"providers"






