Openclaw部署飞书机器人

OpenClaw 项目资源

  • GitHub 仓库: https://github.com/openclaw/openclaw
  • 官方文档: https://docs.openclaw.ai/
  • 飞书插件:https://www.npmjs.com/package/@m1heng-clawd/feishu
  • GLM模型官方API:https://bigmodel.cn/glm-coding

一、安装 OpenClaw

前置要求

  1. 需要 GLM-4.7 API 或支持 200K token 的 API 模型;
  2. 本地部署的可行性分析:
    • 需 RTX4090-48G 显卡并使用 GLM-4.7-flash-Q4 版本,才有可能有这么大的token,不过别人的高配主机部署这个显卡开200K上下文实测才20token/s;
    • 以一次简单有用的任务使用10万token为例,要达到20token/s[1200token/分钟], 需要80分钟,所以要有200token/s的速度一次任务8分钟勉强能接受[即使这样还是要经常开新会话]。
  3. 安装 Node.js [winget show --id OpenJS.NodeJS,在windows系统中,这个命令可以找到最新的下载链接],右击开始,在终端管理员中输入npm --version命令和node --version,能得到版本号则是安装成功

安装命令

npminstall -g openclaw@latest 

二、飞书机器人配置

  1. 访问 飞书开放平台 创建应用,获取 App ID 和 App Secret
  2. 配置步骤:
    • 添加机器人并命名
    • 在"事件与回调"中将2个地方的订阅方式改为长连接(需确保 OpenClaw 中 Channels 状态为 Enabled 和 OK)
    • 更改后创建并且发布新版本(保持名称一致)
  3. 使用说明:
    • 遇到权限提示可直接复制到飞书平台自动识别
    • 在飞书打开发布的机器人,在对话框中输入 /new 可以创建新会话,不要一直对话,以防token超出

权限管理中添加以下权限[在插件网站上有详细说明]:

contact:contact(全部) im:message(全部) bot(全部) contact:user.base:readonly im:resource 

三、飞书插件安装

安装方式

  • 建议先查询openclaw官方信息,有可能它的最新版本加入了对飞书的支持,这样就不需要自行安装了
  • Windows10/11 手动安装(如遇 spawn npm ENOENT 错误):

安装依赖(可选):

cd C:\Users\Administrator\.openclaw\extensions\feishu npminstall @larksuiteoapi/node-sdk 

安装插件:

openclaw plugins install ./feishu-0.1.4.tgz 

注意:如果安装结果中,在’Installing plugin dependencies '之后又提示这个错误,去安装依赖;如果一直无法直接通过’openclaw plugins install’命令在线安装插件,是因为官方没有支持,你可以去研究怎么手动安装插件,手动安装只能靠openclaw官方文档和插件官方说明。

下载最新版本[访问插件官网找到版本号,更新以下链接中的版本号,必须使用最新的版本,因为你安装的openclaw是最新的,防止插件不兼容]:

curl -O https://registry.npmjs.org/@m1heng-clawd/feishu/-/feishu-0.1.4.tgz 

推荐方式(Ubuntu / win系统的WSL2中):

openclaw plugins install @m1heng-clawd/feishu 

配置飞书连接

openclaw config set channels.feishu.appId "YOUR_APP_ID" openclaw config set channels.feishu.appSecret "YOUR_APP_SECRET" openclaw config set channels.feishu.enabled true openclaw config set channels.feishu.connectionMode websocket openclaw config set channels.feishu.dmPolicy pairing openclaw config set channels.feishu.groupPolicy allowlist openclaw config set channels.feishu.requireMention true

四、配置并且启动 OpenClaw

openclaw onboard --install-daemon openclaw gateway 

默认使用了cmd的启动器电脑开机自启,建议使用360优化掉它,使用360急救箱[免安装]扫描到这个启动项,以及自行选择工具处理。

五、首次使用需配置密钥

    • 在 Settings/Connection 中配置获取的 token

临时访问方式:

http://<GATEWAY_ADDRESS>:<PORT>/__openclaw__/?token=YOUR_GATEWAY_TOKEN 

访问控制面板:

http://127.0.0.1:18789/__openclaw__/ 

获取访问令牌:

cat ~/.openclaw/openclaw.json 

Read more

AI模型大揭秘:豆包、文心一言、DeepSeek、元宝四大模型特点与选择指南!

AI模型大揭秘:豆包、文心一言、DeepSeek、元宝四大模型特点与选择指南!

简介 在生成式AI逐渐普及的今天,你是否遇到过这样的场景:同一个问题,向不同的AI提问,得到的答案质量参差不齐?这背后,其实是不同AI模型因技术基因、训练数据和应用场景的差异,形成了独特的“内容偏好”和“思维模式”。本文将结合最新行业实践,深度解析豆包、文心一言、DeepSeek、元宝四大模型的特点,并教你如何根据自身需求选择最适合的AI工具,拥抱智能时代的变革。 一、四大AI模型的“个性”与底层逻辑 01 豆包(字节系):实用至上的“生活助手” * 偏好:深度绑定字节生态(如抖音、今日头条),青睐结构化内容(如清单、表格、数据图表)和实用技巧类信息。 * 底层逻辑:依托字节的短视频和用户行为数据,擅长处理场景化、轻量级任务,例如生活技巧、产品对比、热点解读。 * 典型场景:查询“如何挑选高性价比手机”,豆包会快速给出参数对比表和购买建议。 02

AIGC时代Kubernetes企业级云原生运维实战:智能重构与深度实践指南

AIGC时代Kubernetes企业级云原生运维实战:智能重构与深度实践指南

文章目录 * 一、AIGC技术栈与Kubernetes的深度融合 * 1. 智能配置生成:从YAML到自然语言 * 2. 动态资源优化:AI驱动的弹性伸缩 * 二、智能运维体系架构深度解析 * 四维能力矩阵增强实现: * 关键组件升级代码示例: * 三、企业级实战策略深度实践 * 策略1:AI辅助的渐进式交付 * 策略2:自主优化闭环实现 * 四、典型场景实战深度解析 * 场景1:突发流量应对(完整代码示例) * 场景2:混合云灾备(多云适配代码) * 五、未来演进方向代码探索 * 数字孪生示例(简化版) * 边缘智能示例 * 《Kubernetes企业级云原生运维实战(云计算前沿实战丛书)》 * 编辑推荐 * 内容简介 * 作者简介 * 目录 * 前言/序言 * 本书内容 * 本书特点 在生成式AI(AIGC)与云原生技术深度融合的今天,Kubernetes正经历着从“容器编排工具”到“智能运维大脑”的蜕变。

AIGC-Fooocus部署实践:从本地手动配置到云端一键启用的深度剖析

AIGC-Fooocus部署实践:从本地手动配置到云端一键启用的深度剖析

摘要: 本文旨在为人工智能生成内容(AIGC)领域的爱好者和开发者提供一份详尽的Fooocus部署指南。Fooocus作为一款基于Gradio的开源图像生成软件,凭借其简化的操作和高质量的输出,受到了广泛关注。我们将通过两种截然不同的部署路径——传统的本地手动环境配置与现代化的云平台一键部署——来全面探索Fooocus的落地过程。本文将深入剖析手动部署中的每一个步骤、每一条命令及其背后的技术逻辑,详细记录可能遇到的环境冲突与解决方案,并将其与云端部署的流畅体验进行客观对比,为读者在不同场景下选择最合适的部署策略提供坚实的技术参考。 第一章:引言——Fooocus与AIGC部署的挑战 随着Stable Diffusion等底层模型的开源,AIGC技术,特别是文生图领域,迎来了爆发式的增长。各种应用和WebUI层出不穷,极大地降低了普通用户接触和使用前沿AI模型的门槛。在众多工具中,由lllyasviel(ControlNet的作者)开发的Fooocus,以其独特的哲学脱颖而出。Fooocus的设计理念是“化繁为简”,它在保留Stable Diffusion XL(SDXL)强大能力的