OpenClaw配置 GLM-4.7 Flash+DuckDuckGo 实现飞书机器人联网问答

OpenClaw配置 GLM-4.7 Flash+DuckDuckGo 实现飞书机器人联网问答

摘要

OpenClaw+GLM-4.7 Flash+DuckDuckGo:手把手教你搭建飞书群聊联网问答机器人。本文提供一套100% 免费的落地方案,详解 OpenClaw 安装、GLM-4.7 Flash 模型配置、DuckDuckGo 搜索插件启用、飞书应用创建与网关对接、群聊白名单配置等关键步骤,附完整命令与避坑指南,实现飞书内 @机器人即可获取实时联网信息,打造高效团队协作 AI 工具。

效果展示

准备工作

node.js安装

下载地址 https://nodejs.org/en/download

安装完成。

git 安装

下载地址 https://git-scm.com/install/windows

上图普通用户默认选择,我是程序员,因此选择第二项

接下来的步骤都是保持默认选择,点击Next,直到安装完成

安装完成。

权限配置

允许你的电脑运行本地脚本,解决 OpenClaw 安装时 “脚本禁止运行” 的报错。以管理员身份打开 PowerShell 运行命令

Set-ExecutionPolicy RemoteSigned -Force

验证命令

Get-ExecutionPolicy 

输出RemoteSigned ,权限设置完成。

详细步骤(正文)

开始安装openclaw

浏览器打开:https://openclaw.ai/ 滑到QuickStart处

用管理员权限打开poewershell

等待安装,期间会自动打开和关闭命令行窗口,如果等待时间超过5分钟还是这样,可以按回车键

安装完成, 剩余均为配置类问题 。我这里在openclaw安装完之后,没有自动触发 openclaw onboard交互式配置向导,因为我不是第一次安装的原因,系统已经存在某些文件。 执行命令:

openclaw onboard

选择Yes

模型选择

因为我打算使用免费的大模型 智谱GLM-4.7 Flash,

先获取智谱 API Key
1. 访问 智谱 AI 开放平台,注册 / 登录账号
2. 进入「API Keys」页面,创建新的 API Key(免费额度足够日常使用)
3. 复制生成的 API Key(格式类似:xxxx.xxxx

输入API key

这里一定要选择要用的模型,默认是GLM-5是收费的,回车

现在到了 选择对话渠道 的步骤,这里是 OpenClaw 用来和你交互的入口,我这里选择飞书

准备飞书凭证【机器人配置】


先去 飞书开放平台 创建「自建应用」我之前已经创建了机器人应用

​开启权限:im:messageim:chatcontact:user.base:readonly

获取 App ID 和 App Secret

这里是 OpenClaw 在飞书群聊中的响应规则,你可以根据需求选择:选择默认的
- 个人 / 办公使用:选 Allowlist,先控制范围,后续再按需加群
- 只想私聊用:选 **`Disabled

这里输入群ID,即会话ID

配置联网搜索能力

现在到了 联网搜索功能 的配置环节,这个功能让 Bot 能实时查资料、获取最新信息。选择DuckDuckGo,免费使用,由于服务器在国外,网络可能会差一些,但起码不收费。

现在到了 技能(Skills)配置 环节,这里是 OpenClaw 额外功能的开关(比如代码执行、文件操作、工具调用等)。

先选择No,尽快把流程跑通,以后需要的话,可以在配置

现在到了 Hooks(自动化钩子) 配置环节,这是用于自动化处理 Agent 命令的进阶功能。先默认跳过。

按空格选中,


按回车提交继续下一步


现在到了 网关服务(Gateway service) 的最后一步,配置文件已经更新完成,只需要处理服务重启即可。

安装完成,启动网关

openclaw gateway 

新打开powershell 执行命令openclaw dashboard
会自动打开浏览器网关页面:http://127.0.0.1:18789/chat?session=main

常见问题 & 踩坑记录

  • 报错怎么解决
  • 容易卡在哪

总结

Read more

Nunchaku FLUX.1 CustomV3:让AI绘画变得简单又高效

Nunchaku FLUX.1 CustomV3:让AI绘画变得简单又高效 你是不是也遇到过这些情况: 想用AI画一张海报,结果调了半小时参数,生成的图不是手多一只,就是背景糊成一团; 下载了一个新模型,光是装依赖、配环境就折腾一整天,最后连界面都没打开; 看到别人发的精美插画心痒痒,可翻遍教程还是搞不清“CLIP”“LoRA”“CFG scale”到底在哪儿改、怎么调…… 别急——这次不用折腾。Nunchaku FLUX.1 CustomV3 镜像,就是为“不想研究原理,只想马上出图”的你准备的。 它不是又一个需要手动拼接节点、反复调试权重的复杂工作流,而是一套开箱即用、单卡RTX4090就能跑、改两行文字就能出高质量图的文生图方案。背后融合了 FLUX.1-dev 的强生成能力、FLUX.1-Turbo-Alpha 的响应速度,以及 Ghibsky Illustration LoRA 的细腻画风加持—

AI绘画创业第一步:Stable Diffusion 3.5低成本验证方案

AI绘画创业第一步:Stable Diffusion 3.5低成本验证方案 你是不是也经常刷到别人用AI画出精美插画、定制头像、甚至接单赚钱?看着心动,但又怕买设备、学软件、投钱打水漂?别担心,作为一个从零开始摸索过来的自由职业者,我完全理解你的顾虑。 今天我要分享的,是一套专为自由职业者设计的AI绘画副业启动方案——利用 Stable Diffusion 3.5(SD 3.5) 和云端GPU资源,实现“零硬件投入、低时间成本、快速出图变现”的可行性验证路径。整个过程不需要你懂编程,也不用买显卡,只要会打字、会上网,就能在几个小时内跑通全流程。 为什么选 SD 3.5?因为它不仅是目前开源图像生成模型中的“顶流”,还特别适合商业应用:支持更高分辨率、细节更精细、文字渲染能力更强,而且对提示词(prompt)的理解更加自然。更重要的是,

YOLOv8无人机快递投送:着陆区障碍物检测保障安全

YOLOv8无人机快递投送:着陆区障碍物检测保障安全 在城市楼宇间穿梭的无人机,正悄然改变着物流的“最后一公里”。当一架满载包裹的飞行器缓缓下降,准备在楼顶平台精准投放时,真正的挑战才刚刚开始——地面上是否有人走动?是否有临时停放的车辆或杂物?这些看似微小的问题,一旦被忽略,就可能引发安全事故,甚至阻碍整个空中物流系统的落地进程。 正是在这样的背景下,基于 YOLOv8 深度学习模型 的视觉感知方案,成为解决无人机自动着陆安全问题的关键突破口。它不再依赖简单的高度传感器或GPS定位,而是让无人机“看得懂”环境,具备对行人、宠物、障碍物等目标的语义识别能力。这种从“盲降”到“智降”的转变,背后是一整套融合了先进算法、高效训练工具和边缘部署能力的技术体系。 YOLOv8 是 Ultralytics 推出的第八代目标检测模型,延续了“单次前向传播完成检测”的设计理念,但在架构设计与工程实现上实现了显著跃升。相比早期版本,它的最大亮点在于更清晰的模块化结构、更强的小目标检测性能,以及对无锚框(anchor-free)趋势的深度支持。这意味着模型不再需要人为设定大量先验框来匹配物体尺寸,从

具身智能小智AI小车图形化编程Mixly MQTT MCP AIOT控制齐护机器人

具身智能小智AI小车图形化编程Mixly MQTT MCP AIOT控制齐护机器人

项目1-07 智能AI小车 (PBL技术核心_MCP与AI小车控制应用) 一、项目场景介绍 在人工智能迈向“具身化”(Embodied Intelligence)的新时代,智能体不再只是云端的算法,而是能感知、决策并与物理世界互动的实体存在。本课程以齐护Small智能小车为硬件载体,结合齐护AiTall Mini开发平台与小智AI开源大模型对话系统,打造一个集“自然语言理解—意图识别—物理执行”于一体的端到端具身智能交互实验平台。 课程项目将通过图形化软件Mixly编程方式,轻松实现以下高阶功能: 1.语音/文本指令输入:用户通过自然语言与小智AI对话; 2.大模型意图解析:利用小智AI开源大模型理解用户指令语义; 3.多协议融合通信:通过串口、MQTT、MCP协议及本地IoT控制(如AiTall内置RGB灯反馈),构建低延迟、高可靠的人—AI—小车通信链路; 4.智能行为执行:小车根据AI解析结果完成移动、灯光响应、状态反馈等具身动作; 5.可视化编程体验:采用齐护教育版Mixly平台,零代码门槛快速上手,