【保姆级教程】手把手教你安装OpenClaw并接入飞书,让AI在聊天软件里帮你干活

【保姆级教程】手把手教你安装OpenClaw并接入飞书,让AI在聊天软件里帮你干活

这里先做一下简单的科普:

OpenClaw 的名字经历了三次变更,第一次叫做 ClawdBot,后来因为名字跟 Claude 太过相似,被 CLaude 告侵权,遂改名 MoltBot

但是后来在改名过程中遭遇域名和社交账号被抢注,甚至出坑同名加密货币割韭菜的情况,导致名称传播受阻。

最终定名为:OpenClaw

所以,名字经历先后顺序为:ClawdBot -> MoltBot -> OpenClaw

大家不要因为名字困惑了,怀疑是不是自己下错软件了,他们都是同一个。

一、什么是 OpenClaw?

OpenClaw(曾用名 Clawdbot)是一款 2026 年爆火的开源个人 AI 助手,GitHub 星标已超过 10 万颗。与传统 AI 聊天机器人的根本区别在于:

  • 真正的执行能力:不仅能回答问题,还能实际操作你的电脑
  • 24/7 全天候待命:在你睡觉时也能主动完成任务
  • 完全开源免费:数据完全掌控在自己手中
  • 支持多种通讯平台:在国外,WhatsApp、Telegram、Discord、Slack、iMessage 等,在国内,飞书,钉钉等各大厂商的即时聊天软件已经支持接入

它能做什么?

它不只是回答问题的聊天机器人,而是真的能在你电脑上动手操作。比如你告诉它“帮我整理一下上个月的邮件”,它就默默去处理了;你睡觉时,它还能继续干活,退订广告、预约行程、甚至找找 Bug。

它完全免费,你的数据都在自己手里。而且可以用钉钉,飞书,WhatsApp、Telegram等各类即时通讯软件来指挥他干活!

简单来说,一句话交给它,从整理桌面文件到控制家里灯光,它都默默帮你搞定。是你电脑里真正的贾维斯!超级智能的AI助理!

二、安装nodejs

后面执行一键安装命令,可以自动安装nodejs,但是如果为了加快速度,防止安装意外,可以先安装nodejs:

官方下载地址:https://nodejs.org/zh-cn/download

三、开始安装

一)设置 PowerShell 执行权限

以管理员身份运行 PowerShell:

  1. Win 键,搜索 PowerShell
  2. 右键点击 Windows PowerShell
  3. 选择 以管理员身份运行

点击 确认

在管理员 PowerShell 窗口中,依次执行以下两条命令:

Set-ExecutionPolicy RemoteSigned -Scope CurrentUser Set-ExecutionPolicy-Scope Process-ExecutionPolicy Bypass 

这是什么意思?

  • 第一条命令:允许当前用户运行本地和下载的脚本
  • 第二条命令:允许当前用户运行本地和下载的脚本
⚠️ 安全提示:这些命令只会影响您自己的账户,不会影响系统安全或其他用户。

二)执行一键安装命令

复制以下命令,粘贴到 PowerShell 窗口中,按 Enter 执行:

iwr-useb https://openclaw.ai/install.ps1 |iex

安装过程会自动完成:

  • 检测系统环境
  • 安装必要依赖(Node.js 等)
  • 下载 OpenClaw 核心文件
  • 配置环境变量
  • 启动配置向导
注意:如果命令执行后,还是报错,可以自己到官网下载node安装包,自己安装node环境,注意版本最好在 node v22.x 以上,node官网下载地址:https://nodejs.org/zh-cn/download,若还是不懂怎么安装,点头像进我主页找到我,拉你进交流群

四、初始配置向导

安装完成后,会自动进入配置向导(openclaw onboard)。

一)风险告知

这一步主要是告诉你,使用OpenClaw可能会有一些风险。请问你是否继续?
按 向左方向键 ←,选择 Yes,按 Enter 回车确认

二)选择 QiuickStart 模式

三)配置 AI 模型 API Key

OpenClaw 需要连接到大语言模型才能工作。Openclaw 比较费token,国外模型成本高,门槛也高,这里我选择国内的智谱的 GLM 4.7

如果没有智谱的API Key,点击官方地址自己注册账号获取API key:https://www.bigmodel.cn/glm-coding?ic=RBSKXMPNJP

输入自己的 API Key:

四)选择 AI 模型

这里我选择默认的GLM 4.7,也是智普当前的旗舰模型

五)连接即时通讯平台

配置完 AI 模型后,OpenClaw 会询问你要连接哪个通讯平台?

OpenClaw 原生支持的即时通信平台主要是海外的 WhatsApp、Telegram、Discord、Slack、iMessage 等,国内用户不习惯,这里国产即时通信软件大厂也跟进了,现在钉钉,飞书等都已支持接入OpenClaw

后面会带领大家把飞书机器人接入 OpenClaw,使大家可以通过飞书即可指挥OpenClaw为我们干活,但是飞书配置比较复杂,这里我们先选择跳过,后面我们可以通过继续进行配置:

六)选择Skills

这里也选择:No,暂不配置,后面通过UI界面进行配置:

七)是否开启Hooks

操作步骤:先敲空格,表示选中当前项,再敲回车键

八)启动服务并打开UI界面

此时它会自动再打开一个命令窗口来启动服务:

这个过程是在启动服务,可能会需要等一点时间

同时,大约过30秒左右,我们回到刚才的设置窗口,选择 Open the Web UI ,打开 OpenClaw 的UI界面:

浏览器自动打开Web UI界面:

九)测试一下

五、接入飞书机器人

我们需要先到飞书平台创建自己的机器人来接入OpenClaw:

一)来到飞书开发者后台

飞书开放平台地址:https://open.feishu.cn

没有飞书账号的,需要自己注册账号

点击右上角进入 开发者后台

二)创建应用

三)填写应用信息

四)获取自己的应用凭证

五)给应用添加机器人

六)给应用配置权限

把即时通讯相关的权限全部开通:

七)创建版本并发布

来到飞书客户端进行审批:

八)安装飞书插件

打开powershell,输入以下命令,安装飞书插件:

openclaw plugins install @m1heng-clawd/feishu 

安装成功后,再打开一个新的命令窗口,开始配置飞书插件:

输入命令:openclaw config

选择渠道:

选择配置链接:

输入飞书的AppID,AppSecrect:

域名选择中国的:

接受群组聊天:

选择完成:

选择yes:

选择open:

选择继续,完成配置:

重启服务,使配置生效:
控制可以看到飞书插件已经配置成功

七)回到飞书后台设置事件回调

选择 使用长连接接收事件

可以看到添加事件按钮由原来的灰色不可点击变为可点击:

添加接收消息事件:

给应用开通获取通讯录基本信息的权限:

重新发布版本:

跟前面的步骤一样,发布为在线应用即可。

现在可以在 飞书中与 AI 助手对话了!

八)在飞书中与OpenClaw对话

来到飞书客户端或者手机飞书app上:

以下是openclaw文件夹下面的文档内的内容:

现在我跟废水机器人对话,让他告诉我指定文档内是什么内容:


六、访问 Web 控制面板

配置完成后,PowerShell 窗口底部会显示控制面板链接,格式类似:

Control UI: http://127.0.0.1:18789 
  1. 复制完整链接
  2. 在浏览器中打开
  3. 即可看到可视化UI管理界面

七、常用命令速查

命令功能
openclaw onboard重新进入配置向导
openclaw status查看运行状态
openclaw health健康检查
openclaw gateway start启动服务
openclaw gateway stop停止服务
openclaw update更新到最新版本
openclaw doctor诊断问题
openclaw uninstall卸载 OpenClaw

八、常见问题解答

Q1: 安装飞书插件提示:spawn npm ENOENT

问题原因:这可能是openclaw的一个bug,可以等官方更新,也可以自己去官方仓库提issue

解决步骤:

定位问题代码

文件路径:

C:\Users\Administrator\AppData\Roaming\fnm\node-versions\v22.14.0\installation\node_modules\openclaw\dist\process\exec.js 

修改代码

找到 runCommandWithTimeout 函数中的 spawn 调用,修改如下:

修改前:

const stdio =resolveCommandStdio({ hasInput,preferInherit:true});const child =spawn(argv[0], argv.slice(1),{ stdio, cwd,env: resolvedEnv, windowsVerbatimArguments,});

修改后:

const stdio =resolveCommandStdio({ hasInput,preferInherit:true});// On Windows, npm must be spawned with shell: true or use .cmd extensionlet command = argv[0];let useShell =false;if(process.platform ==="win32"&& path.basename(command)==="npm"){ useShell =true;}const child =spawn(command, argv.slice(1),{ stdio, cwd,env: resolvedEnv,shell: useShell,});

Q2: 提示 “openclaw 命令找不到”

解决方法:

  1. 关闭所有 PowerShell 窗口
  2. 重新打开 PowerShell
  3. 如果还不行,执行 exec bash 或重启电脑

Q3: 安装卡住不动

解决方法:

  1. Ctrl + C 中断当前操作
  2. 执行:openclaw doctor 检查问题
  3. 如提示网络问题,检查防火墙设置

Q4: API Key 配置错误

解决方法:

  1. 执行:openclaw onboard
  2. 选择重新配置 API Key
  3. 确保密钥格式正确

Q5: 端口 18789 被占用

解决方法:

openclaw gateway --port 18790 

使用其他端口启动服务。

九、成本说明

OpenClaw 软件本身完全免费,主要成本来自 AI 模型 API 调用,可选择国产大模型,降低成本。


结语

OpenClaw 代表了个人 AI 助理的未来趋势——从"聊天工具"进化为"执行工具"。虽然目前的配置过程对小白用户有一定门槛,但一旦完成设置,您将拥有一个 24/7 待命的超级助手。

Read more

OpenAI Codex vs GitHub Copilot:哪个更适合你的开发需求?2025年深度对比

OpenAI Codex 与 GitHub Copilot:2025年开发者如何做出关键选择? 在2025年的技术栈里,一个高效的AI编程伙伴不再是锦上添花,而是决定项目节奏与质量的核心生产力。面对市场上功能各异的选择,许多开发者,尤其是那些管理着复杂项目或带领团队的技术决策者,常常陷入一个两难的境地:是选择功能全面、能独立处理任务的“AI工程师”,还是选择无缝集成、提供实时灵感的“智能副驾驶”?这不仅仅是工具的选择,更是关于工作流重塑、团队协作模式乃至项目架构未来的战略决策。对于个人开发者、初创团队乃至大型企业的技术负责人而言,理解这两款主流工具——OpenAI Codex与GitHub Copilot——在本质定位、适用场景与成本效益上的深层差异,是避免资源错配、最大化技术投资回报的第一步。本文将深入它们的核心,帮助你根据真实的开发需求,找到那个最契合的“数字搭档”。 1. 核心理念与定位:从“辅助”到“执行”的范式差异 理解Codex和Copilot,首先要跳出“它们都是写代码的AI”这个笼统印象。它们的底层设计哲学决定了完全不同的应用边界。 OpenAI Codex

Jetson 上 OpenClaw + Ollama + llama.cpp 的联动配置模板部署大模型

Jetson 上我建议的联动方式是:OpenClaw -> Ollama(主模型,原生 API)+ llama.cpp(备用/低资源模型,OpenAI 兼容 API)+ Ollama embeddings(memorySearch)。 这样做的原因是,OpenClaw 官方把 Ollama + openclaw onboard 作为最低冲突的本地方案;同时它也支持把 vLLM / LiteLLM / 自定义 OpenAI-compatible 本地代理 作为额外 provider 接进来。Ollama 这边,OpenClaw 明确推荐走原生 http://host:11434,不要给它配 /v1,否则工具调用会变差;而 llama.cpp 的 llama-server

大模型基于llama.cpp量化详解

大模型基于llama.cpp量化详解

概述 llama.cpp 是一个高性能的 LLM 推理库,支持在各种硬件(包括 CPU 和 GPU)上运行量化后的大语言模型。本文档详细介绍如何使用 llama.cpp 将 HuggingFace 格式的模型转换为 GGUF 格式,并进行不同程度的量化。 GGUF 格式:GGUF(Georgi Gerganov Universal Format)是 llama.cpp 专门设计的模型文件格式,针对快速加载和保存模型进行了优化,支持单文件部署,包含加载模型所需的所有信息,无需依赖外部文件。 1.安装cmake CMake 是跨平台的构建工具,用于编译 llama.cpp 项目。 下载地址:https://cmake.org/download/ 安装建议:

智能家居新玩法:MediaPipe Hands镜像实现隔空操控实战

智能家居新玩法:MediaPipe Hands镜像实现隔空操控实战 你有没有试过这样的场景:正躺在沙发上追剧,突然想调低音量,却怎么也找不到遥控器?或者双手沾着零食油渍,根本不想去碰任何设备?如果此时只需轻轻一挥手,就能完成播放、暂停、切换音量等操作——无需语音唤醒、无需物理接触,是不是瞬间觉得家里的设备“活”了过来? 这不再是科幻电影中的桥段。借助 AI 手势识别与追踪 技术,我们已经可以用最自然的方式与智能设备交互。而今天要介绍的,正是基于 ZEEKLOG 星图平台提供的 「AI 手势识别与追踪」镜像,手把手教你如何利用 MediaPipe Hands 模型,打造一套高精度、低延迟、纯本地运行的隔空操控系统。 1. 为什么选择 MediaPipe Hands? 在众多手势识别方案中,Google 开源的 MediaPipe Hands 凭借其轻量级架构、高精度关键点检测和出色的跨平台兼容性,成为当前最受欢迎的选择之一。