Openclaw部署飞书机器人

OpenClaw 项目资源

  • GitHub 仓库: https://github.com/openclaw/openclaw
  • 官方文档: https://docs.openclaw.ai/
  • 飞书插件:https://www.npmjs.com/package/@m1heng-clawd/feishu
  • GLM模型官方API:https://bigmodel.cn/glm-coding

一、安装 OpenClaw

前置要求

  1. 需要 GLM-4.7 API 或支持 200K token 的 API 模型;
  2. 本地部署的可行性分析:
    • 需 RTX4090-48G 显卡并使用 GLM-4.7-flash-Q4 版本,才有可能有这么大的token,不过别人的高配主机部署这个显卡开200K上下文实测才20token/s;
    • 以一次简单有用的任务使用10万token为例,要达到20token/s[1200token/分钟], 需要80分钟,所以要有200token/s的速度一次任务8分钟勉强能接受[即使这样还是要经常开新会话]。
  3. 安装 Node.js [winget show --id OpenJS.NodeJS,在windows系统中,这个命令可以找到最新的下载链接],右击开始,在终端管理员中输入npm --version命令和node --version,能得到版本号则是安装成功

安装命令

npminstall -g openclaw@latest 

二、飞书机器人配置

  1. 访问 飞书开放平台 创建应用,获取 App ID 和 App Secret
  2. 配置步骤:
    • 添加机器人并命名
    • 在"事件与回调"中将2个地方的订阅方式改为长连接(需确保 OpenClaw 中 Channels 状态为 Enabled 和 OK)
    • 更改后创建并且发布新版本(保持名称一致)
  3. 使用说明:
    • 遇到权限提示可直接复制到飞书平台自动识别
    • 在飞书打开发布的机器人,在对话框中输入 /new 可以创建新会话,不要一直对话,以防token超出

权限管理中添加以下权限[在插件网站上有详细说明]:

contact:contact(全部) im:message(全部) bot(全部) contact:user.base:readonly im:resource 

三、飞书插件安装

安装方式

  • 建议先查询openclaw官方信息,有可能它的最新版本加入了对飞书的支持,这样就不需要自行安装了
  • Windows10/11 手动安装(如遇 spawn npm ENOENT 错误):

安装依赖(可选):

cd C:\Users\Administrator\.openclaw\extensions\feishu npminstall @larksuiteoapi/node-sdk 

安装插件:

openclaw plugins install ./feishu-0.1.4.tgz 

注意:如果安装结果中,在’Installing plugin dependencies '之后又提示这个错误,去安装依赖;如果一直无法直接通过’openclaw plugins install’命令在线安装插件,是因为官方没有支持,你可以去研究怎么手动安装插件,手动安装只能靠openclaw官方文档和插件官方说明。

下载最新版本[访问插件官网找到版本号,更新以下链接中的版本号,必须使用最新的版本,因为你安装的openclaw是最新的,防止插件不兼容]:

curl -O https://registry.npmjs.org/@m1heng-clawd/feishu/-/feishu-0.1.4.tgz 

推荐方式(Ubuntu / win系统的WSL2中):

openclaw plugins install @m1heng-clawd/feishu 

配置飞书连接

openclaw config set channels.feishu.appId "YOUR_APP_ID" openclaw config set channels.feishu.appSecret "YOUR_APP_SECRET" openclaw config set channels.feishu.enabled true openclaw config set channels.feishu.connectionMode websocket openclaw config set channels.feishu.dmPolicy pairing openclaw config set channels.feishu.groupPolicy allowlist openclaw config set channels.feishu.requireMention true

四、配置并且启动 OpenClaw

openclaw onboard --install-daemon openclaw gateway 

默认使用了cmd的启动器电脑开机自启,建议使用360优化掉它,使用360急救箱[免安装]扫描到这个启动项,以及自行选择工具处理。

五、首次使用需配置密钥

    • 在 Settings/Connection 中配置获取的 token

临时访问方式:

http://<GATEWAY_ADDRESS>:<PORT>/__openclaw__/?token=YOUR_GATEWAY_TOKEN 

访问控制面板:

http://127.0.0.1:18789/__openclaw__/ 

获取访问令牌:

cat ~/.openclaw/openclaw.json 

Read more

VSCode Copilot认证失败频发,资深工程师都在用的3个冷门修复技巧

第一章:VSCode Copilot认证失败的常见现象与影响 认证失败的主要表现 当 VSCode 中的 GitHub Copilot 无法完成身份验证时,用户通常会遇到以下几种典型现象: * 编辑器右下角持续显示“Connecting to GitHub…”提示 * 弹出错误通知:“GitHub Copilot could not sign in”或“Authentication failed” * 代码补全功能完全失效,无任何智能建议出现 * 命令面板中 Copilot 相关命令变灰不可用 潜在影响分析 认证失败不仅中断开发流程,还可能引发更深层次的问题。长期无法认证将导致: 1. 团队协作效率下降,尤其在依赖 AI 辅助编码的敏捷开发环境中 2. 开发者被迫切换至低效的手动编码模式,增加人为错误风险 3. 企业级项目中可能出现代码风格不一致、重复代码增多等问题 典型错误日志示例 在 VSCode 的输出面板中选择“

大模型基于llama.cpp量化详解

大模型基于llama.cpp量化详解

概述 llama.cpp 是一个高性能的 LLM 推理库,支持在各种硬件(包括 CPU 和 GPU)上运行量化后的大语言模型。本文档详细介绍如何使用 llama.cpp 将 HuggingFace 格式的模型转换为 GGUF 格式,并进行不同程度的量化。 GGUF 格式:GGUF(Georgi Gerganov Universal Format)是 llama.cpp 专门设计的模型文件格式,针对快速加载和保存模型进行了优化,支持单文件部署,包含加载模型所需的所有信息,无需依赖外部文件。 1.安装cmake CMake 是跨平台的构建工具,用于编译 llama.cpp 项目。 下载地址:https://cmake.org/download/ 安装建议:

Whisper v0.2 免费开源语音转文字软件工具下载安装教程使用全指南

Whisper v0.2 免费开源语音转文字软件工具下载安装教程使用全指南

文章目录 * 一、Whisper v0.2软件核心介绍 * 二、Whisper v0.2下载 * 三、Whisper v0.2 详细安装步骤 * 1. 解压安装包 * 2. 启动软件(附快捷方式设置) * 四、Whisper v0.2 软件功能设置与使用教程 * 1. Whisper核心功能参数说明(新手必看) * (1)模型选择 * (2)GPU 选项设置(避免程序崩溃) * (3)推理方式与精度选择(优化识别效率) * 2. Whisper语音转文字操作步骤(全程 3 步) 一、Whisper v0.2软件核心介绍 Whisper v0.2 是一款免费开源的本地语音转文字工具,基于通用语音识别模型开发,

主流大模型介绍(GPT、Llama、ChatGLM、Qwen、deepseek)

主流大模型介绍(GPT、Llama、ChatGLM、Qwen、deepseek)

GPT系列模型 一、ChatGPT 的本质 * 发布者:OpenAI(2022年11月30日) * 类型:聊天机器人模型,基于自然语言处理技术 * 核心能力:理解语言、生成对话、撰写邮件/文案/代码、翻译等 * 增长数据:2个月用户破1亿,日活约1300万 二、GPT 系列模型演进对比 模型发布时间参数量核心创新主要局限GPT-12018.061.17亿引入生成式预训练 + Transformer Decoder语言模型单向;需微调才能泛化GPT-22019.0215亿多任务学习 + Zero-shot 能力无监督能力仍有限GPT-32020.051750亿Few-shot 学习 + Sparse Attention成本高、长文本不稳定、内容不可控ChatGPT2022.11基于GPT-3引入 RLHF(人类反馈强化学习)服务不稳定、可能生成错误信息 三、核心技术点回顾 1. GPT-1 * 使用单向 Transformer Decoder(