DAY4 基于 OpenClaw + 飞书开放平台实现 AI 新闻推送机器人

DAY4 基于 OpenClaw + 飞书开放平台实现 AI 新闻推送机器人

DAY4 基于 OpenClaw + 飞书开放平台实现 AI 新闻推送机器人

目录

DAY4 基于 OpenClaw + 飞书开放平台实现 AI 新闻推送机器人

前  言

1 环境准备

1.1 华为云开发环境

1.2 ModelArts 代金券与模型服务

1.3 启动 OpenClaw 网关

2 飞书开放平台配置

2.1 创建企业自建应用

2.2 添加机器人能力

2.3 配置应用权限

2.4 发布应用版本

3 OpenClaw 与飞书集成

3.1 配置 OpenClaw 的飞书凭证

3.2 创建 Python 项目与长连接

3.3 配置飞书事件订阅

4 功能测试

5 收尾工作

6 总结与扩展


前  言

        在日常工作中,我们常常需要关注科技领域的最新动态,但手动浏览多个网站效率低下。本文将详细介绍如何利用 OpenClaw(一个开源的 AI 自动化框架)结合 飞书开放平台,快速搭建一个 AI 新闻推送机器人。该机器人可以自动访问指定网站,抓取科技新闻摘要,并通过飞书机器人实时推送给用户,让你不错过任何重要资讯。

1 环境准备

1.1 华为云开发环境

我们选择华为云开发者空间作为开发环境,它提供了预装的开发工具和依赖,能极大简化配置流程。

  1. 登录华为云,进入 开发者空间,创建一个新的云开发环境(在华为开发者空间中,点击菜单开发平台 —— 云开发环境 —— 开发桌面,创建云开发环境 —— 开发桌面。)。
  2. 进入环境后,桌面会预装 CodeArts IDE for PythonGitCode 等工具,我们后续将使用这些工具进行开发。

创建完成后,操作开发桌面开机,然后进入远程桌面。

1.2 ModelArts 代金券与模型服务

为了使用 OpenClaw 的 AI 能力,我们需要先开通 ModelArts 的模型服务:

  1. 在华为云控制台,进入 ModelArts > 在线推理
  2. 在 “非计划权益” 中领取 ModelArts 代金券(如截图所示,本次领取了 7 元代金券)。
  3. 点击 预置服务,选择 DeepSeek-V3.2 等模型,勾选 “我已阅读并同意”,然后点击 一键开通

开通成功后,在 “调用说明” 中获取 API 地址模型参数,并点击 “API Key 管理” 创建一个新的 API Key。

⚠️ 注意:API Key 只会显示一次,请务必复制并妥善保存,后续配置 OpenClaw 时会用到。
⚠️ 注意:API Key 只会显示一次,请务必复制并妥善保存,后续配置 OpenClaw 时会用到。

1.3 启动 OpenClaw 网关

  1. 在桌面双击运行 Moltbot(OpenClaw 的启动器)。
  2. 在弹出的终端中,输入之前创建的 API Key,然后回车。
  3. 系统会自动在后台启动 OpenClaw 网关,并在浏览器中打开控制面板(http://127.0.0.1:18789)。
  4. 在控制面板的 “Chat” 页面,你可以发送消息测试 OpenClaw 是否正常工作,例如:“请向我介绍下你自己?”。

2 飞书开放平台配置

首先,可以在华为云开发环境终端中安装飞书插件,实现OpenClaw与飞书的配置链接。

输入以下命令:

openclaw plugins install @m1heng-clawd/feishu

2.1 创建企业自建应用

  1. 访问 飞书开放平台,登录后点击 创建企业自建应用
  2. 填写应用名称(如 OpenClaw_test)和描述,选择图标后点击 创建

2.2 添加机器人能力

  1. 在应用左侧菜单,进入 应用能力 > 添加应用能力
  2. 选择 机器人 能力,点击 “添加”。

2.3 配置应用权限

为了让机器人能够接收和发送消息,我们需要配置相应的权限:

1. 进入 开发配置 > 权限管理

2. 点击 批量导入 / 导出权限,将以下 JSON 粘贴到输入框中:

{ "scopes": { "tenant": [ "contact:contact.base:readonly", "contact:user.base:readonly", "im:message", "im:message.group_at_msg:readonly", "im:message.p2p_msg:readonly", "im:message:send_as_bot", "im:resource" ], "user": [] } }

3. 点击 下一步,确认新增权限,然后点击 申请开通

4. 在弹出的 “应用身份权限可访问的数据范围” 窗口中,点击 确认

2.4 发布应用版本

1. 点击顶部创建版本,进入 应用发布 > 版本管理与发布

2. 进入 创建版本 界面,填写版本号(如 1.0.0)和更新说明,移动端和桌面端的默认能力都选择 “机器人”。

3. 点击 保存,然后 确认发布。发布成功后,应用状态会变为 “已启用”。

4. 进入 基础信息 > 凭证与基础信息,复制 App IDApp Secret,后续配置 OpenClaw 时会用到。

3 OpenClaw 与飞书集成

3.1 配置 OpenClaw 的飞书凭证

1. 在华为云环境的终端中,执行以下命令,将飞书的 App ID 和 App Secret 配置到 OpenClaw 中:

openclaw config set channels.feishu.appId "YOUR_APP_ID" openclaw config set channels.feishu.appSecret "YOUR_APP_SECRET"

2. 重启 OpenClaw 网关使配置生效:

openclaw gateway restart

3.2 创建 Python 项目与长连接

为了让飞书能实时接收 OpenClaw 的消息,我们需要建立一个长连接:

1. 打开桌面的 CodeArts IDE for Python,点击 新建工程,选择 Python,命名为 openClaw_test

2. 打开 IDE 底部的 “终端”,激活虚拟环境并安装飞书 Python SDK:

pip install lark-oapi -U

3. 验证安装:

pip show lark-oapi

4. main.py 文件中的代码替换为飞书官方提供的长连接示例代码,并将其中的 YOUR_APP_IDYOUR_APP_SECRET 替换为我们之前复制的值。

import lark_oapi as lark ## P2ImMessageReceiveV1 为接收消息 v2.0;CustomizedEvent 内的 message 为接收消息 v1.0。 def do_p2_im_message_receive_v1(data: lark.im.v1.P2ImMessageReceiveV1) -> None: print(f'[ do_p2_im_message_receive_v1 access ], data: {lark.JSON.marshal(data, indent=4)}') def do_message_event(data: lark.CustomizedEvent) -> None: print(f'[ do_customized_event access ], type: message, data: {lark.JSON.marshal(data, indent=4)}') event_handler = lark.EventDispatcherHandler.builder("", "") \ .register_p2_im_message_receive_v1(do_p2_im_message_receive_v1) \ .register_p1_customized_event("这里填入你要自定义订阅的 event 的 key,例如 out_approval", do_message_event) \ .build() def main(): cli = lark.ws.Client("YOUR_APP_ID", "YOUR_APP_SECRET", event_handler=event_handler, log_level=lark.LogLevel.DEBUG) cli.start() if __name__ == "__main__": main()

5. 点击右上角的 “运行” 按钮,启动长连接。控制台显示 connected to wss://... 即表示连接成功。

⚠️ 注意:长连接程序必须保持运行,否则飞书无法接收事件推送。

3.3 配置飞书事件订阅

1. 回到飞书开放平台,进入 开发配置 > 事件与回调

2. 在 “事件配置” 中,订阅方式选择 使用长连接接收事件,点击 保存

3. 点击 添加事件,在 “应用身份订阅” 下找到 “消息与群组”,勾选 接收消息 v2.0,然后点击 “确认添加”。

4. 再次进入 版本管理与发布,创建新版本(如 2.0.0)并发布,使事件订阅配置生效。

4 功能测试

一切配置就绪后,我们来测试新闻推送功能:

1. 打开飞书客户端,找到我们创建的机器人 OpenClaw_test

2. 发送指令:@OpenClaw_test 去访问以下两个网站 (https://www.leikeji.com/)、(https://tech.gmw.cn),有任何关于"科技"领域的新闻,立刻把最新的摘要推送给我。

3. 稍等片刻,机器人就会自动抓取新闻并推送回来,效果如下:

发送后可同时在华为云开发者空间OpenClaw客户端查看到返回信息。

5 收尾工作

测试完成后,你可以通过以下命令停止 OpenClaw 网关服务:

openclaw gateway stop

6 总结与扩展

        通过本文的实践,我们成功搭建了一个基于 OpenClaw 和飞书的 AI 新闻推送机器人。这个项目不仅展示了如何将 AI 自动化能力与企业 IM 工具无缝集成,也为我们提供了一个可扩展的框架。

Read more

嵌入式开发中的 Git CI/CD

嵌入式开发中的 Git CI/CD 一、CI/CD 概述 1.1 什么是 CI/CD? 持续集成 (Continuous Integration, CI) * 开发人员频繁地将代码集成到主分支 * 每次集成都通过自动化构建和测试来验证 * 及早发现集成错误,降低修复成本 持续交付/部署 (Continuous Delivery/Deployment, CD) * 确保代码随时处于可发布状态 * 自动化部署到测试/生产环境 * 快速、可靠地交付软件更新 1.2 嵌入式开发中的特殊挑战 * 硬件依赖: 需要特定的开发板或模拟器 * 交叉编译: 目标平台与开发平台不同 * 资源限制: 内存、存储空间有限 * 实时性要求: 严格的时序要求 * 安全性: 代码质量直接影响系统稳定性 二、GitHub Actions Workflow

By Ne0inhk

手把手github多模态大模型项目复现流程(小白可用)

写在前面:大家复现项目时可以把readme 丢给GPT 先了解整体需要做的流程框架,在复现项目之前先仔细阅读readme、分析项目框架,以下是我复现项目的相关流程以及遇到的问题 1. autodl租用 这里建议直接在autodl上租一个GPU进行环境配置  进行学生认证 刚开始使用无卡启动 先搭好环境后再直接开机 Autodl使用教程:AutoDL使用教程:1)创建实例 2)配置环境+上传数据 3)PyCharm2021.3专业版下载安装与远程连接完整步骤 4)实时查看tensorboard曲线情况 这里,我选择基础镜像--miniconda 3.10版本 pycharm镜像是官方已经把 PyTorch、CUDA、cuDNN 等常用深度学习工具都安装并配置好了,版本也是互相匹配的;复现论文代码时候我们一般选择miniconda,里面只有一个最小化的 Conda 环境管理器,其他所有东西都需要自己从头安装。 配置好之后和pycharm/vscode进行远程连接,教程见PyCharm专业版连接AutoDl详细教程(手把手教程!!) 以及一些操作小知识(重点),和再开机连接教程!

By Ne0inhk

STM32CubeMX、MDK(Keil MDK)、git、vscode等工具中统一编码设置(UTF-8),确保中文支持,避免乱码问题

STM32CubeMX、MDK(Keil MDK)、git、vscode等工具中统一编码设置(UTF-8),确保中文支持,避免乱码问题 * STM32CubeMX、MDK(Keil MDK)、git、vscode等工具中统一编码设置(UTF-8),确保中文支持,避免乱码问题 * 一、STM32CubeMX 编码设置 * 二、Keil MDK 编码设置 * 三、Git 编码设置 * 四、VS Code设置UTF-8编码 * 五、统一工作流建议 * MDK编码格式为UTF-8,stm32的printf中文输出到串口调试软件,中文显示乱码 * SecureCRT: * Xshell: * Putty: * MobaXterm: * 串口调试助手(如SSCOM、AccessPort等): * 如果串口调试软件不支持UTF-8编码: STM32CubeMX、MDK(Keil MDK)、git、vscode等工具中统一编码设置(

By Ne0inhk

仅限今日开源!基于Python的高性能JSON结构化编辑器架构详解

第一章:Python高性能JSON编辑器概述 在现代软件开发中,JSON(JavaScript Object Notation)作为轻量级的数据交换格式被广泛使用。随着数据规模的不断增长,对JSON文件的高效读取、编辑和写入操作提出了更高要求。传统的文本编辑方式已难以满足大型JSON文件的处理需求,因此构建一个基于Python的高性能JSON编辑器成为提升开发效率的关键工具。 核心特性 * 支持大文件流式解析,避免内存溢出 * 提供语法高亮与结构化视图,增强可读性 * 实现快速搜索与路径定位功能 * 集成校验机制,确保JSON格式合法性 技术选型对比 库名称解析速度内存占用适用场景json (标准库)中等高小到中型文件ujson高低高性能需求ijson低极低超大文件流式处理 基础解析示例 # 使用ijson进行流式解析,适用于大文件 import ijson def stream_parse_json(file_path): with open(file_path, 'rb') as f: # 逐个解析JSON对象中的事件流 parser = ijson.

By Ne0inhk