Openclaw部署飞书机器人

OpenClaw 项目资源

  • GitHub 仓库: https://github.com/openclaw/openclaw
  • 官方文档: https://docs.openclaw.ai/
  • 飞书插件:https://www.npmjs.com/package/@m1heng-clawd/feishu
  • GLM模型官方API:https://bigmodel.cn/glm-coding

一、安装 OpenClaw

前置要求

  1. 需要 GLM-4.7 API 或支持 200K token 的 API 模型;
  2. 本地部署的可行性分析:
    • 需 RTX4090-48G 显卡并使用 GLM-4.7-flash-Q4 版本,才有可能有这么大的token,不过别人的高配主机部署这个显卡开200K上下文实测才20token/s;
    • 以一次简单有用的任务使用10万token为例,要达到20token/s[1200token/分钟], 需要80分钟,所以要有200token/s的速度一次任务8分钟勉强能接受[即使这样还是要经常开新会话]。
  3. 安装 Node.js [winget show --id OpenJS.NodeJS,在windows系统中,这个命令可以找到最新的下载链接],右击开始,在终端管理员中输入npm --version命令和node --version,能得到版本号则是安装成功

安装命令

npminstall -g openclaw@latest 

二、飞书机器人配置

  1. 访问 飞书开放平台 创建应用,获取 App ID 和 App Secret
  2. 配置步骤:
    • 添加机器人并命名
    • 在"事件与回调"中将2个地方的订阅方式改为长连接(需确保 OpenClaw 中 Channels 状态为 Enabled 和 OK)
    • 更改后创建并且发布新版本(保持名称一致)
  3. 使用说明:
    • 遇到权限提示可直接复制到飞书平台自动识别
    • 在飞书打开发布的机器人,在对话框中输入 /new 可以创建新会话,不要一直对话,以防token超出

权限管理中添加以下权限[在插件网站上有详细说明]:

contact:contact(全部) im:message(全部) bot(全部) contact:user.base:readonly im:resource 

三、飞书插件安装

安装方式

  • 建议先查询openclaw官方信息,有可能它的最新版本加入了对飞书的支持,这样就不需要自行安装了
  • Windows10/11 手动安装(如遇 spawn npm ENOENT 错误):

安装依赖(可选):

cd C:\Users\Administrator\.openclaw\extensions\feishu npminstall @larksuiteoapi/node-sdk 

安装插件:

openclaw plugins install ./feishu-0.1.4.tgz 

注意:如果安装结果中,在’Installing plugin dependencies '之后又提示这个错误,去安装依赖;如果一直无法直接通过’openclaw plugins install’命令在线安装插件,是因为官方没有支持,你可以去研究怎么手动安装插件,手动安装只能靠openclaw官方文档和插件官方说明。

下载最新版本[访问插件官网找到版本号,更新以下链接中的版本号,必须使用最新的版本,因为你安装的openclaw是最新的,防止插件不兼容]:

curl -O https://registry.npmjs.org/@m1heng-clawd/feishu/-/feishu-0.1.4.tgz 

推荐方式(Ubuntu / win系统的WSL2中):

openclaw plugins install @m1heng-clawd/feishu 

配置飞书连接

openclaw config set channels.feishu.appId "YOUR_APP_ID" openclaw config set channels.feishu.appSecret "YOUR_APP_SECRET" openclaw config set channels.feishu.enabled true openclaw config set channels.feishu.connectionMode websocket openclaw config set channels.feishu.dmPolicy pairing openclaw config set channels.feishu.groupPolicy allowlist openclaw config set channels.feishu.requireMention true

四、配置并且启动 OpenClaw

openclaw onboard --install-daemon openclaw gateway 

默认使用了cmd的启动器电脑开机自启,建议使用360优化掉它,使用360急救箱[免安装]扫描到这个启动项,以及自行选择工具处理。

五、首次使用需配置密钥

    • 在 Settings/Connection 中配置获取的 token

临时访问方式:

http://<GATEWAY_ADDRESS>:<PORT>/__openclaw__/?token=YOUR_GATEWAY_TOKEN 

访问控制面板:

http://127.0.0.1:18789/__openclaw__/ 

获取访问令牌:

cat ~/.openclaw/openclaw.json 

Read more

FPGA Debug:PCIE XDMA没有Link up(驱动检测不到xilinx PCIE设备)使用LTSSM定位问题

FPGA Debug:PCIE XDMA没有Link up(驱动检测不到xilinx PCIE设备)使用LTSSM定位问题

问题现象: 与驱动联调:驱动无法扫描到Xilinx的PCIE设备 通过ila抓取pcie_link_up信号:发现link up一直为低 问题分析:         出现这种情况,在FPGA中搭建测试环境,使用XDMA+BRAM的形式,减少其它模块的影响,框架如下: 1 检查PCIE的时钟 时钟,必须使用原理图上的GT Ref 差分时钟,通过IBUFDSGTE转为单端时钟 2 检查PCIE 复位 复位:PCIE复位信号有要求--上电后,PCIE_RESTN信号需在电源稳定后延迟一段时间再释放,通常是100ms以上 而这100ms的时间,系统主要做以下的事情: * 电源稳定时间 * 参考时钟稳定时间 * PCIe IP核的复位和初始化时间 * 链路训练时间 // 典型的100ms时间分配: 0-10ms   : 电源稳定 (Power Stable) 10-20ms  : 参考时钟稳定 (Refclk Stable)   20-30ms  : 复位释放和PLL锁定 (Reset Release

By Ne0inhk
基于Xilinx的FPGA 7系列及以上在线升级程序实现与特性解析

基于Xilinx的FPGA 7系列及以上在线升级程序实现与特性解析

基于xilinx的FPGA在线升级程序,仅7系列以上支持 一、代码背景与模块定位 本文档解析的代码源自Xilinx 7系列Kintex-7 FPGA(型号xc7k325tffg900-2)的在线升级系统项目,具体对应dbghubsimnetlist.v文件,是Vivado 2020.2工具链生成的调试枢纽(dbghub)功能仿真网表。该模块本质是Xilinx xsdbmv300xsdbm IP核的封装实现,核心作用是为FPGA在线升级过程提供标准化调试接口,承担外部调试工具与FPGA内部逻辑的信号交互、数据转发及状态监控功能,是连接“调试工具-PCIe控制器-MT25Q闪存”的关键枢纽,也是在线升级系统中故障排查、进度监控、指令下发的底层支撑组件。 基于xilinx的FPGA在线升级程序,仅7系列以上支持 从代码生成信息可知,该模块通过write_verilog -force -mode funcsim命令生成,明确标注为“功能仿真网表”,不可用于综合或SDF注释时序仿真,仅用于验证调试链路的功能正确性,这一属性决定了代码的核心价值在于“功能逻辑呈现”而非“硬件资源映射”。

By Ne0inhk
机器人逆运动学:从SVD到IK算法

机器人逆运动学:从SVD到IK算法

引言 最近接触的机器人项目需要实现在特定约束下的逆运动学解算,而直接套用目前大多数开源IK算法(如KDL/TRAC IK等)或多或少都存在一些问题,因此需要自行实现迭代IK并添加特定的约束.然而,目前普遍教科书都倾向于介绍解析解IK,对数值IK更多是从网络博客收集整理获得,因此决定写下本文将这部分的知识作一个总结. 本文将从基础的线性代数SVD开始介绍,逐步过渡到数值IK的求解中,并以KDL的源码为例进一步剖析实际应用时的写法. SVD与最小二乘法 SVD是工程数学常用的工具,数学上看起来只是对矩阵做分解,但其在工程上可应用的地方很多,如奇异值和特征向量可以作为降维(PCA),除此以外分解后的矩阵有良好的性质方便求逆. 下面将详细介绍SVD如何用于求逆. 线性代数常见的一个问题: A x = b (1.1) Ax=b \tag{1.1} Ax=b(1.1) 求 x x x最直观的一个理解是对矩阵 A A A求逆,其解就是 A − 1 b A^

By Ne0inhk
在 Mac Mini M4 上本地跑大模型(Ollama + Llama + ComfyUI + Stable Diffusion | Flux)

在 Mac Mini M4 上本地跑大模型(Ollama + Llama + ComfyUI + Stable Diffusion | Flux)

Mac Mini M4 配备了苹果自家研发的 M1/M2/M4 芯片,具有强大的处理能力,能够支持本地跑一些大模型,尤其是在使用如 Ollama、Llama、ComfyUI 和 Stable Diffusion 这类 AI 相关工具时,性能表现非常好。本教程将指导你如何在 Mac Mini M4 上本地部署并运行这些大模型,涵盖从环境搭建到使用的全流程。 一、准备工作 1. 确保系统更新 确保你的 macOS 版本已更新到最新的版本(例如 macOS 13.0 以上),这将确保兼容性和性能。 安装 Homebrew(macOS 包管理工具) Homebrew 是 macOS 上非常流行的包管理工具,它帮助你方便地安装各种软件。在终端中输入以下命令来安装

By Ne0inhk