Apple Silicon核心arm64 架构MAC部署openclaw

Apple Silicon核心arm64 架构MAC部署openclaw

背景: 

周末尝试部署了一下最近大火的小龙虾 。发现arm64的装起来跟普通的似乎不太一样 。特地写个文档给大家解决一下问题 

我的mac是 Apple Silicon(M1/M2/M3/M4,arm64 架构)。

环境准备:

注意命令必须运行在原生的终端里

首先检查一下你的node版本

node -v

确认node架构

node -e "console.log(process.platform, process.arch)"
  • 如果输出 darwin x64 → 就是 Rosetta/x64 问题。
  • 应该输出 darwin arm64 才对。

如果node版本比较低或者架构不对。比如14.几 建议升级到最新版22 

nvm install 22 --reinstall-packages-from=current # 这会自动选 arm64 二进制

适合mac的新芯片

切换并设为默认

nvm use 22 nvm alias default 22

验证 arm64

node -e "console.log(process.platform, process.arch)" # 必须是 darwin arm64 node -v # v22.x.x which node # 应该在 ~/.nvm/versions/node/v22.../bin/node arch # 输出 arm64

确保 Xcode Command Line Tools 已安装

xcode-select --install 

安装一下homebrew

/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)" 

开始安装:

直接就是一条命令行

curl -fsSL https://openclaw.ai/install.sh | bash

然后就会自动弹出设置菜单,首先让你确认安全风险,Yes就完事了。

下一个设置项是Onboarding mode,QuickStart就好。新手接入,我先建议不要搞太多设置,多数设置可以设置为默认,反正后期都是可以修改的。

下一步选择模型提供商。由于我们要薅OpenRouter免费token的羊毛,就选OpenRouter。

于此同时,我们去OpenRouter创建一个API_KEY。点击OpenRouter的Step-3.5页面,然后Create API KEY,名字随便起,例如OpenClaw,创建API_KEY,并保存好KEY。

然后返回OpenClaw设置页面,粘贴你的Key。

下一步就是选模型,由于OpenRouter有很多模型,你可能要在这一步翻一下,模型是按字母排序的,往下翻就找到了stepfun/step-3.5-flash:free。

就完成了Step 3.5 Flash的接入。下一步就是接入飞书。之前的教程会让你用个插件,但OpenClaw最新版本已经官方集成了飞书/Lark接入,就不再需要插件了

下一步是配置Skill。这个可以自己看着弄,例如接入苹果记事本,bear记事本等工具。

剩下的步骤,可以先选择跳过,例如Google的API设置等

最后是启动方式,

TUI就是在terminal里跑的UI,随便问个问题,看看接入成功没。

可以看到,现在接入成功了,本地跑Agent,免费的模型API接口,总共花费:0。

最后,还得开Gateway,才能实现和通信软件互通信息。

openclaw gateway start Gateway dashboard

飞书配置

注:在配置飞书时,可能会出现找不到模块zod的错误

如果遇到,则npm install zod即可解决。

然后我们去飞书开放平台,然后在开发者后台,点击「创建企业自建应用」

起个自己喜欢的名字,然后进入应用后台,在「凭证和基础信息」这里,把App ID和App Secret复制下来

然后添加个机器人的能力

配置机器人。权限添加,点击这个按钮,

导入下面这段JSON,就自动配置好了基础的权限

{ "scopes": { "tenant": [ "contact:user.base:readonly", "im:chat", "im:chat:read", "im:chat:update", "im:message", "im:message.group_at_msg:readonly", "im:message.p2p_msg:readonly", "im:message:send_as_bot", "im:resource" ], "user": [ "contact:contact.base:readonly" ] } }

订阅方式:使用长连接接收事件,并添加事件「接受消息」

在回调设置,也是一样:使用长连接接收事件

最后,点击左上方的「创建版本」。飞书这边的设置就好了

然后到OpenClaw这边设置。去OpenClaw的后台,选择Channels,在feishu这项设置

翻到下面,把前面复制的App ID和App Secret粘贴到对应的位置

然后这个时候你从飞书发消息给OpenClaw,应该会出现这个情况。

解决方法很简单,选中那段话,复制下来,粘贴到电脑端的OpenClaw对话框里。就完成配对了。

再次试验,成功!

一些报错:

1. [1/3] Preparing environment · Homebrew not found, installing ✗ Installing Homebrew failed — re-run with --verbose for details Warning: Running in non-interactive mode because stdin is not a TTY. ==> Checking for sudo access (which may request your password)... Need sudo access on macOS (e.g. the user 0100474 needs to be an Administrator)!

OpenClaw 的 install.sh 脚本会自动检测并安装 Homebrew(如果没有),而 Homebrew 的官方安装脚本需要一次 sudo 来创建 /usr/local 等目录(后续用 brew install 东西就不需要 sudo 了)。

但因为你用 curl ... | bash 管道方式运行,整个过程是非交互的(stdin 不是终端),sudo 没法弹出密码输入框 → 直接失败。

运行 Homebrew 官方安装命令(它会提示输入密码):

/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"

2. 提示node版本是xxxx  然后开始安装 node 随后失败

手动安装下

如果node版本比较低或者架构不对。比如14.几 建议升级到最新版22 

nvm install 22 --reinstall-packages-from=current # 这会自动选 arm64 二进制

适合mac的新芯片

切换并设为默认

nvm use 22 nvm alias default 22

验证 arm64

node -e "console.log(process.platform, process.arch)" # 必须是 darwin arm64 node -v # v22.x.x which node # 应该在 ~/.nvm/versions/node/v22.../bin/node arch # 输出 arm64

3. > [email protected] postinstall
> node ./dist/cli/cli.js postinstall
[node-llama-cpp] llama.cpp is not supported under Rosetta on Apple Silicone Macs. Ensure that you're using a native arm64 node.js installation.
[node-llama-cpp] process.platform: darwin, process.arch: x64
[node-llama-cpp] troubleshooting: https://node-llama-cpp.withcat.ai/guide/troubleshooting#illegal-hardware-instruction
npm info run [email protected] postinstall { code: 1, signal: null }
npm verbose stack Error: command failed
npm verbose stack at promiseSpawn (/Users/jyxc-dz-0100474/.nvm/versions/node/v22.12.0/lib/node_modules/npm/node_modules/@npmcli/promise-spawn/lib/index.js:22:22)
npm verbose stack at spawnWithShell (/Users/jyxc-dz-0100474/.nvm/versions/node/v22.12.0/lib/node_modules/npm/node_modules/@npmcli/promise-spawn/lib/index.js:124:10)
npm verbose stack at promiseSpawn (/Users/jyxc-dz-0100474/.nvm/versions/node/v22.12.0/lib/node_modules/npm/node_modules/@npmcli/promise-spawn/lib/index.js:12:12)
npm verbose stack at runScriptPkg (/Users/jyxc-dz-0100474/.nvm/versions/node/v22.12.0/lib/node_modules/npm/node_modules/@npmcli/run-script/lib/run-script-pkg.js:77:13)
npm verbose stack at runScript (/Users/jyxc-dz-0100474/.nvm/versions/node/v22.12.0/lib/node_modules/npm/node_modules/@npmcli/run-script/lib/run-script.js:9:12)
npm verbose stack at /Users/jyxc-dz-0100474/.nvm/versions/node/v22.12.0/lib/node_modules/npm/node_modules/@npmcli/arborist/lib/arborist/rebuild.js:329:17
npm verbose stack at run (/Users/jyxc-dz-0100474/.nvm/versions/node/v22.12.0/lib/node_modules/npm/node_modules/promise-call-limit/dist/commonjs/index.js:67:22)
npm verbose stack at /Users/jyxc-dz-0100474/.nvm/versions/node/v22.12.0/lib/node_modules/npm/node_modules/promise-call-limit/dist/commonjs/index.js:84:9
npm verbose stack at new Promise (<anonymous>)
npm verbose stack at callLimit (/Users/jyxc-dz-0100474/.nvm/versions/node/v22.12.0/lib/node_modules/npm/node_modules/promise-call-limit/dist/commonjs/index.js:35:69)
npm verbose pkgid [email protected]
npm error code 1
npm error path /Users/jyxc-dz-0100474/.nvm/versions/node/v22.12.0/lib/node_modules/openclaw/node_modules/node-llama-cpp
npm error command failed
npm error command sh -c node ./dist/cli/cli.js postinstall
npm verbose cwd /Users/jyxc-dz-0100474
npm verbose os Darwin 25.3.0
npm verbose node v22.12.0
npm verbose npm v10.9.0
npm verbose exit 1
npm verbose code 1
npm error A complete log of this run can be found in: /Users/jyxc-dz-0100474/.npm/_logs/2026-03-03T08_52_52_856Z-debug-0.log

核心问题:你的 Node.js 是 x64(Intel 架构),但你的 Mac 是 Apple Silicon(M1/M2/M3/M4,arm64 架构)。这意味着 Node 运行在 Rosetta 2 模拟层下,而 node-llama-cpp(基于 llama.cpp)不支持在 Rosetta 上运行(因为 llama.cpp 用到了 ARM 特定的指令或 Metal GPU 加速,Rosetta 会触发 "illegal hardware instruction")。

看上面 重新装一个arm的node

记得一定要用苹果自带的终端。因为别的终端通常都是x64架构的

nvm alias default 14 #先把node版本切换掉。不然不能卸载常用node 卸载当前 x64 Node(清理掉问题版本): nvm uninstall 22 # 或 nvm uninstall 22.12.0 如果是精确版 nvm uninstall --lts # 如果你设了默认

Read more

KaiwuDB社区版在PX4-ROS2无人机飞行仿真中的落地实践,加速仿真时序数据的高效存取与智能分析

KaiwuDB社区版在PX4-ROS2无人机飞行仿真中的落地实践,加速仿真时序数据的高效存取与智能分析

目录 一、前言 二、时序数据增长下的业务痛点分析:MySQL在PX4-ROS2无人机仿真中的瓶颈 三、实践过程 3.1准备工作: 3.1.1 安装KWDB 3.1.2 使用 KaiwuDB 开发者中心连接 KaiwuDB 3.1.3 连接数据库 3.2 实践过程 3.2.1数据库连接 3.2.2 表格设计与创建 3.2.3 数据采集、插入、保存 3.2.4 查询与分析 3.3 数据库监控 3.3.

By Ne0inhk
《星辰 RPA 全自动:做一个小红书自动发文机器人》

《星辰 RPA 全自动:做一个小红书自动发文机器人》

前引:在企业数智化转型的浪潮中,如何突破 “有 AI 无落地、有流程无智能” 的困局?星辰 Agent 与星辰 RPA 的出现,正是为了解决这一痛点。作为科大讯飞旗下的双核心产品,星辰 Agent 以企业级 Agentic Workflow 开发平台为底座,提供 AI 工作流编排、模型管理与跨系统连接能力;而星辰 RPA 则以超过 300 个自动化原子能力,让业务流程真正 “动” 起来! 目录 一、企业机器人自动化平台:RPA (1)RPA介绍 (2)服务端安装 (1)clone项目 (2)配置为本地访问 (3)检查镜像源 (4)配置default.conf

By Ne0inhk

RoboMaster SDK 终极指南:从零开始掌握机器人编程

RoboMaster SDK 终极指南:从零开始掌握机器人编程 【免费下载链接】RoboMaster-SDKDJI RoboMaster Python SDK and Sample Code for RoboMaster EP. 项目地址: https://gitcode.com/gh_mirrors/ro/RoboMaster-SDK 想要轻松控制DJI RoboMaster EP教育机器人吗?RoboMaster SDK就是你的完美选择!这是一个基于Python语言的开发工具包,让你用简单的代码就能实现复杂的机器人控制功能。无论你是编程新手还是资深开发者,都能快速上手这个强大的机器人开发平台。 🎯 快速上手:5分钟开启你的第一个机器人程序 核心概念速览 RoboMaster SDK采用了"模块化"设计理念,将机器人的各种功能封装成独立的模块。你可以像搭积木一样组合这些模块,创建出各种有趣的机器人应用。 环境配置三步走 第一步:安装Python环境 确保你的电脑上安装了Python 3.6.

By Ne0inhk
YOLOv8 模型移植到高通机器人RB5 平台详细指南

YOLOv8 模型移植到高通机器人RB5 平台详细指南

💡前言 随着边缘端 AI 推理需求的增长,将深度学习模型部署到嵌入式平台成为许多开发者的关注焦点。本文将详细介绍如何将 Ultralytics YOLOv8 训练后的目标检测模型移植到高通机器人RB5平台设备上运行,涵盖从 PyTorch 模型到最终部署的完整流程,并提供常见问题的解决方案和性能优化建议。除了该设备外,如果你手上是一台Thundercomm EB5平台的设备,同样可以按照该步骤完成模型训练,快尝试下吧。 1. 概述 1.1 背景介绍 本文档详细介绍如何将 Ultralytics YOLOv8 训练后的目标检测模型移植到高通机器人 RB5平台(Robotics RB5)上运行。RB5 平台是一款强大的机器人开发平台,搭载 Qualcomm QRB5165 处理器,支持 AI 加速和 5G 连接,非常适合边缘端 AI 推理任务。 1.2 模型移植流程 模型移植的完整流程如下: 1.

By Ne0inhk