MacOS 安装 OpenClaw 并接入飞书机器人(保姆级教程 + 常见问题解决)

MacOS 安装 OpenClaw 并接入飞书机器人(保姆级教程 + 常见问题解决)

MacOS 安装 OpenClaw 并接入飞书机器人(保姆级教程 + 常见问题解决)

在 AI Agent 和自动化工具越来越普及的今天,越来越多开发者希望拥有一个 能够自动处理任务、接入团队协作工具的 AI 助手

最近OpenClaw火的一塌糊涂,我也跟风研究了一下这个开源项目。它可以理解为一个 可扩展的 AI Agent 框架,支持接入各种工具、自动执行任务,并且可以和企业协作平台(如飞书)打通,实现 AI 自动回复、自动化工作流

本文将带大家 从 0 开始,在 MacOS 上安装 OpenClaw,并接入飞书机器人
同时我也整理了自己在安装过程中遇到的 终端报错问题与完整解决方案,让你一次性避坑。

本文包含:

  • MacOS 安装 OpenClaw
  • 接入飞书机器人
  • 配置开机自启
  • 终端报错解决(compdef / compinit)

一、OpenClaw 是什么?

简单来说,OpenClaw 是一个 开源 AI Agent 平台,具备以下能力:

  • 支持接入 LLM(OpenAI / DeepSeek / Claude 等)
  • 可以调用工具执行任务
  • 支持自动化流程
  • 支持企业协作平台接入(飞书 / Slack)

如果把传统 AI 聊天比作 一个会聊天的大脑,那么 OpenClaw 更像是:

一个会思考、会调用工具、还能帮你自动做事的 AI 助手。

例如:

  • 飞书自动回复
  • 自动总结群消息
  • 自动生成日报
  • 自动创建任务
  • 自动执行脚本

二、环境准备

1 MacOS 系统

建议版本:

MacOS 12+ 

Intel 和 Apple Silicon 都可以。


2 安装 Homebrew

如果没有安装 Homebrew:

/bin/bash -c"$(curl-fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"

更新 brew:

brew update 
homebrew


update brow

如果发现更新 homebrow 失败的话,可以切换国内源或者使用 VPN 就好了。

在这里插入图片描述

3 安装 Node.js

OpenClaw 依赖 Node.js 运行环境。

brew installnode

验证:

node-vnpm-v
node


node 的版本号可以与我的保持一致。


三、安装 OpenClaw

在官网:https://openclaw.ai/,有两种比较适合的安装方式,一种是 npm,一种是安装文件。但是安装文件需要 MacOS 版本15 以上,我的这台只有 12 所以我选择 npm 安装方式(因为这台是我的备用机,主力机最好先不要安装 openclaw,因为还是有一些风险的,切记~~)。

npm



安装官方文档的步骤:

npm i -g openclaw 

这个命令需要执行的时间比较长,耐心等待。

安装 openclaw


看到这个结果的时候就是安装完成了。我们启动 openclaw。

openclaw onboard 

执行完这个命令会有很多操作,需要一步一步按照提示选择,基本上都选择跳过或者完成就行了,后续可以在 WebUI 的设置页面配置。
我的选择是第一个提示选择 YES、然后QuickStart、Skip for now、All providers、Skip for now、反正能跳过就跳过,必须设置的就根据自己的需要设置下。

设置


最后这个我选择 Web UI,当然你也可以选择 TUI 这个是用命令行窗口聊天,我习惯用 web 页面。后续在想进入这个配置页面的话可以使用仪表盘命令

openclaw dashboard 
龙虾页面


然后就会自动打开一个网页看到龙虾的配置页面了。

四、配置 AI 模型

点击“配置”然后点击右边的 open 按钮打开配置源文件修改。

在这里插入图片描述

在 json 文件的根节点上看下有没有 models 属性,没有就新建个,有就修改它;

"models":{"mode":"merge","providers":{"unicom-cloud":{"baseUrl":"根据自己的模型服务上信息配置","apiKey":"根据自己的模型服务上信息配置","api":"openai-completions","models":[{"id":"Qwen3.5-397B-A17B","name":"Qwen3.5-397B-A17B","reasoning":false,"input":["text"],"cost":{"input":0,"output":0,"cacheRead":0,"cacheWrite":0},"contextWindow":202752,"maxTokens":16384}]}}}

以上是我的配置,我用的是联通云的服务,Qwen 、DeepSeek 等都有官方文档教程可以到对应的官方查看下。

然后,再修改修改agents.defaults(默认模型与工作空间配置)

"agents":{"defaults":{"model":{"primary":"unicom-cloud/Qwen3.5-397B-A17B"},"models":{"unicom-cloud/Qwen3.5-397B-A17B":{}},"workspace":"/Users/当前登录用户/.openclaw/workspace"}}

保存并生效配置。

更新


保存后点击 Update 按钮更新新配置。

聊天


再次启动后,选择刚才配置好的模型,在聊天窗口可以和龙虾聊天了。

五、接入飞书机器人

打开飞书开放平台:

https://open.feishu.cn 

创建 企业自建应用

在这里插入图片描述


在这里插入图片描述


填写应用名称(如OpenClaw机器人)、应用描述(可选),点击创建。

在这里插入图片描述


应用创建后,进入凭证与基础信息,记录App ID和App Secret(后续配置需用)。
然后在配置飞书机器人权限与事件订阅。

在这里插入图片描述


开通核心权限:左侧菜单栏开发配置 → 权限管理

  • 「应用身份权限」:搜索im:message,全部选中并开通;
  • 「用户身份权限」:搜索contact:user.base:readonly,选中并开通;


订阅方式选择长连接。
添加接收消息事件:点击添加事件,搜索im.message.receive_v1,添加该事件并确认开通对应权限。
好了可以创建版本并发布:点击页面顶部应用发布 → 版本管理与发布,创建新版本,填写更新说明后申请线上发布。


六、配置 openclaw 的飞书能力

步骤一:安装OpenClaw飞书插件
官方命令安装

openclaw plugins install @m1heng-clawd/feishu 

OpenClaw会自动完成安装、配置、重启。

在OpenClaw中配置飞书参数

终端执行以下命令,将和替换为飞书应用的实际信息:

# 配置飞书App ID openclaw config set channels.feishu.appId "<App ID>"# 配置飞书App Secret openclaw config set channels.feishu.appSecret "<App Secret>"# 启用飞书渠道 openclaw config set channels.feishu.enabled true# 配置长连接模式(飞书推荐) openclaw config set channels.feishu.connectionMode websocket # 单聊策略为配对授权 openclaw config set channels.feishu.dmPolicy pairing # 群聊策略为白名单 openclaw config set channels.feishu.groupPolicy allowlist # 群聊需@机器人才响应 openclaw config set channels.feishu.requireMention true

配置完成后重启网关:

openclaw gateway restart 

七、飞书机器人配对授权

飞书机器人配置完成后,需完成配对授权才能实现消息响应。
要配对可以按照以下流程:

  • 终端执行配对命令

获取配对码
在飞书向刚才配置的机器人发送任意消息,机器人会自动回复包含配对码的消息:

配对码
openclaw pairing approve feishu xxxx 
  • 重启网关使授权生效
openclaw gateway restart 
  • 验证授权是否成功
    再次向飞书机器人发送消息,机器人能正常回答就说明配置好了,不过我测试的时候发现机器人答复的有点慢,需要多等一会。

十三、配置 OpenClaw 开机自启(推荐)

为了避免每次手动启动,可以配置 开机自启

方法1 官方守护进程(推荐)

openclaw onboard --install-daemon 

重启电脑即可自动启动。

方法2 LaunchAgent 手动配置(备用)

创建 LaunchAgent:

mkdir-p ~/Library/LaunchAgents 

创建配置文件:

vim ~/Library/LaunchAgents/com.openclaw.gateway.plist 

内容:

<?xml version="1.0" encoding="UTF-8"?><!DOCTYPEplistPUBLIC"-//Apple//DTD PLIST 1.0//EN""http://www.apple.com/DTDs/PropertyList-1.0.dtd"><plistversion="1.0"><dict><key>Label</key><string>com.openclaw.gateway</string><key>ProgramArguments</key><array><string>/usr/local/bin/openclaw</string><string>gateway</string><string>start</string></array><key>RunAtLoad</key><true/><key>KeepAlive</key><true/></dict></plist>

加载服务:

launchctl bootstrap gui/$(id-u) ~/Library/LaunchAgents/com.openclaw.gateway.plist 

验证:

launchctl list |grep openclaw 

十四、常见问题解决

在配置 OpenClaw 时,我遇到了两个典型问题。


问题1

compdef: command not found 

原因

macOS 默认 未启用 zsh 补全系统
而 OpenClaw 的自动补全脚本依赖 compdef


问题2

zsh compinit: insecure directories 

原因

zsh 补全目录权限不安全。


十五、完整解决方案(推荐)

1 安装补全组件

brew install zsh-completions 

2 修改 .zshrc

nano ~/.zshrc 

在文件最顶部添加:

autoload -Uz compinit && compinit -i -u if type brew &>/dev/null; then fpath=($(brew --prefix)/share/zsh-completions $fpath) fi 

3 修复目录权限

sudochmod-R go-w $(brew --prefix)/share/zsh-completions sudochown-R$(whoami)$(brew --prefix)/share/zsh-completions sudochmod-R go-w /usr/share/zsh sudochown-R root:wheel /usr/share/zsh 

4 清理缓存

rm-f ~/.zcompdump* source ~/.zshrc 

十六、验证是否成功

重新打开终端:

source ~/.zshrc 

如果没有任何报错,说明成功。

测试:

openclaw + TAB 

能看到命令补全。


十七、懒人方案(可选)

如果不需要命令补全,可以直接禁用:

echo'export OPENCLAW_COMPLETIONS_DISABLE=1'>> ~/.zshrc rm-f ~/.openclaw/completions/openclaw.zsh source ~/.zshrc 

总结

通过本文,我们完成了:

✔ MacOS 安装 OpenClaw
✔ 接入飞书机器人
✔ 配置开机自启
✔ 解决终端报错

AI Agent + 协作工具结合时,很多重复工作都可以自动化。

未来你可以扩展:

  • 自动日报
  • 自动会议总结
  • 自动任务创建
  • 自动客服机器人

OpenClaw 是一个非常值得尝试的 AI Agent 开源项目

如果觉得文章有帮助,欢迎 点赞 + 收藏 + 关注作者

Read more

文言文大模型诞生记:LLaMA Factory微调古汉语特化版

文言文大模型诞生记:LLaMA Factory微调古汉语特化版 如果你是一位汉语言研究者,想要构建一个能够精准对对联的AI助手,但发现现成的大模型对平仄规则和古汉语韵律理解不佳,那么这篇文章正是为你准备的。本文将详细介绍如何使用"文言文大模型诞生记:LLaMA Factory微调古汉语特化版"镜像,快速搭建一个支持《全唐诗》数据集加载和自定义评价指标的古汉语大模型微调环境。这类任务通常需要GPU环境支持,目前ZEEKLOG算力平台提供了包含该镜像的预置环境,可快速部署验证。 为什么需要古汉语特化的大模型? 现代通用大语言模型虽然在日常对话和文本生成上表现优异,但在处理古汉语这类特殊文本时往往力不从心: * 平仄规则理解偏差:现成模型对古诗词的平仄、对仗规则缺乏专业训练 * 文言文语料不足:预训练数据中古汉语占比通常很低 * 评价指标不匹配:通用语言评价指标无法准确衡量对联质量 "文言文大模型诞生记:LLaMA Factory微调古汉语特化版"镜像正是为解决这些问题而生,它预装了: 1. 基于LLaMA架构的古汉语优化基础模型 2. 完整的《全唐诗》数据集及预处理

VSCode扩展工具Copilot MCP使用教程【MCP】

VSCode扩展工具Copilot MCP使用教程【MCP】

MCP(Model Context Protocol,模型上下文协议) ,2024年11月底,由 Anthropic 推出的一种开放标准,旨在统一大型语言模型(LLM)与外部数据源和工具之间的通信协议。本文章教你使用VSCode扩展工具Copilot MCP快速上手MCP应用! 1. VSCode中安装Copilot MCP Copilot MCP是一个适用于 VSCode 的 MCP Client。 2. Copilot MCP使用 安装之后会出现Coplilot授权,并在左侧菜单中出现MCP Server按钮 3. Add Server 点击Add Server,MCP Server分为两种建立方式,Process和SSE 以Process为例,输入必要信息: 其中Server Name是你给Server起的任意名字,需要注意的是Start Command。 这里我的输入为: npx -y @modelcontextprotocol/server-filesystem /path 注意path修改为自己的文件路径,

VsCode远程连接服务器后安装Github Copilot无法使用

VsCode远程连接服务器后安装Github Copilot无法使用

VsCode远程连接服务器后安装Github Copilot无法使用 1.在Vscode的settings中搜索Extension Kind,如图所示: 2.点击Edit in settings.json,添加如下代码: "remote.extensionKind":{"GitHub.copilot":["ui"],"GitHub.copilot-chat":["ui"],} remote.extensionKind 的作用 这是 VS Code 的远程开发配置项,用于控制扩展在远程环境(如 SSH、容器、WSL)中的运行位置。可选值: “ui”:扩展在本地客户端运行 “workspace”:扩展在远程服务器运行 这两个扩展始终在 本地客户端运行,

B站直播弹幕机器人:解放双手的7大核心功能与3分钟快速上手指南

B站直播弹幕机器人:解放双手的7大核心功能与3分钟快速上手指南 【免费下载链接】Bilibili-MagicalDanmaku【神奇弹幕】哔哩哔哩直播万能场控机器人,弹幕姬+答谢姬+回复姬+点歌姬+各种小骚操作,目前唯一可编程机器人 项目地址: https://gitcode.com/gh_mirrors/bi/Bilibili-MagicalDanmaku 你是否遇到过直播时手忙脚乱的困境?一边要专注内容创作,一边还要手动回复弹幕、感谢礼物、管理秩序,分身乏术导致观众体验下降。B站直播弹幕机器人作为智能场控助手,通过弹幕管理、自动答谢、智能回复和点歌系统四大核心功能模块,帮助主播提升30%互动率,同时减少50%重复操作时间。本文将从痛点分析、功能矩阵、场景化应用到进阶技巧,全面解析如何利用这款工具打造高效智能的直播间。 直播场控的四大痛点与解决方案 直播时最令人头疼的莫过于信息过载——弹幕刷屏导致重要评论被淹没、礼物答谢不及时引发观众不满、重复问题占用大量精力、点歌请求杂乱无章。这些问题直接影响直播质量和观众留存率,而手动操作往往事倍功半。 B站直播弹幕机器人通过模块化设