openclaw配置飞书(Feishu)机器人(2026.03.07)

openclaw配置飞书(Feishu)机器人(2026.03.07)

前提:你已经安装好openclaw,配置好了大模型。
可借鉴我另一篇博文:https://mp.ZEEKLOG.net/mp_blog/creation/editor/157513751

一、配置openclaw channel

打开终端,输入:

openclaw config

开始安装,需要等一会,安装好需要你填飞书的App ID和App Secret,先放着,等执行下面的步骤

二、配置飞书机器人 , 获取App ID和App Secret


安装流程如下链接,太长了,不想编辑了,完成版本发布。
https://www.feishu.cn/content/article/7613711414611463386

1.配置事件长连接时,需要在openclaw上安装飞书SDK(如果步骤一没执行会长连接失败)
2.当然以上配还是有问题的,缺了一点东西

一定把这些加进来,不然跟机器人聊天没反应(很多教程故意不说)
关键词如下:

im.chat.member.bot.deleted_v1 im.chat.member.user.added_v1 im.message.message_read_v1 im.message.receive_v1

3.找到App ID、App Secret(一会配置openclaw channel feishu需要用到)

3.打开飞书。

3.配置DM 

先与机器人对话,出现如下Pairing code,复制

在终端执行命令:

openclaw pairing approve feishu <配对码> --notify

飞书机器人弹出:

然后就可以正常对话了。

Read more

Windows环境本地大模型工具链安装教程:Ollama + llama.cpp + LLaMA Factory

Windows 11 本地大模型工具链终极教程:Ollama + llama.cpp + LLaMA Factory 本教程将指导你在 Windows 11 系统上,将 Ollama、llama.cpp 和 LLaMA Factory 三个工具统一安装到 E 盘,并实现 GPU 加速、数据集配置和一键启动。所有步骤均已实际验证,适用于 RTX 5080 等现代显卡。 📁 1. 统一文件夹结构(推荐) 在 E 盘 创建父文件夹 LLM,用于集中管理所有相关文件。子文件夹规划如下: text E:\LLM\ ├── Ollama\ # Ollama 程序安装目录 ├── OllamaModels\ # Ollama 下载的模型存放目录

TurboDiffusion视频压缩方案:H.264编码体积优化技巧

TurboDiffusion视频压缩方案:H.264编码体积优化技巧 1. 为什么你的视频文件那么大? 如果你用过TurboDiffusion生成视频,可能会发现一个问题:生成的视频文件体积不小。一个短短5秒的720p视频,文件大小可能轻松超过10MB。这带来了一些实际困扰: * 存储压力:生成几十个视频,硬盘空间就告急了 * 分享困难:大文件上传慢,微信、QQ传输经常失败 * 加载缓慢:网页或应用中嵌入视频,用户要等很久才能播放 * 成本增加:云存储和CDN流量都是按量计费的 其实,TurboDiffusion默认生成的MP4视频,使用的是H.264编码,但编码参数比较保守,没有充分压缩。好消息是,通过一些简单的优化技巧,你可以在几乎不损失画质的情况下,把视频体积压缩到原来的1/3甚至更小。 今天我就来分享几个实用的H.264编码优化技巧,让你的TurboDiffusion视频既清晰又“苗条”。 2. H.264编码基础:理解视频压缩原理 在讲具体技巧之前,我们先简单了解一下H.264是怎么压缩视频的。知道了原理,你就能理解为什么这些技巧有效。 2.1 视

用Z-Image-Turbo做了个AI绘画项目,全过程公开

用Z-Image-Turbo做了个AI绘画项目,全过程公开 在本地跑通一个真正能用的文生图模型,到底有多难? 我试过手动下载30GB权重、被CUDA版本折磨到重装系统、为中文提示词失效反复调试CLIP分词器……直到遇见这个预置全部权重的Z-Image-Turbo镜像——从拉起环境到生成第一张高清图,只用了6分23秒。 这不是演示视频里的“跳过加载过程”,而是实打实的:不下载、不编译、不报错。你输入一句“敦煌飞天在赛博空间起舞”,9步之后,1024×1024的图像就躺在输出目录里,细节清晰得能看清飘带上的金箔纹路。 本文不讲原理、不堆参数,只记录一个普通开发者的真实项目落地全过程:怎么部署、怎么调参、怎么避坑、怎么把模型真正用进工作流。所有代码可复制、所有路径已验证、所有截图来自同一台RTX 4090D机器。 1. 为什么选Z-Image-Turbo而不是其他模型? 1.1 真正的“开箱即用”不是宣传语,是物理事实 很多镜像标榜“开箱即用”,但实际启动后第一件事还是等模型下载。而这个镜像的32.88GB权重文件,早已完整存放在/root/workspace/model_

解密Midjourney第三方API服务:技术原理与合规边界探讨

解密Midjourney第三方API服务:技术实现与合规实践指南 在AI绘画领域,Midjourney以其卓越的图像生成能力成为行业标杆,但官方并未开放API接口。这催生了一批第三方服务商通过技术手段实现API化封装,为开发者提供集成解决方案。本文将深入解析其技术实现原理,并提供合规实践方案。 1. 第三方API的技术实现路径 第三方服务实现Midjourney API化主要依赖两种技术路线: Discord协议模拟方案 通过逆向工程分析Midjourney Bot在Discord平台上的通信协议,模拟用户操作流程: 1. 身份认证层:获取Discord用户token并维持会话状态 2. 指令转换层:将REST API请求转换为Discord消息格式 3. 消息解析层:从Bot回复中提取图片URL和生成状态 4. 结果分发层:将生成结果通过Webhook或长轮询返回客户端 典型Python实现示例: import discord from discord.ext import commands class MidjourneyClient: def __init