OpenClaw配置 GLM-4.7 Flash+DuckDuckGo 实现飞书机器人联网问答

OpenClaw配置 GLM-4.7 Flash+DuckDuckGo 实现飞书机器人联网问答

摘要

OpenClaw+GLM-4.7 Flash+DuckDuckGo:手把手教你搭建飞书群聊联网问答机器人。本文提供一套100% 免费的落地方案,详解 OpenClaw 安装、GLM-4.7 Flash 模型配置、DuckDuckGo 搜索插件启用、飞书应用创建与网关对接、群聊白名单配置等关键步骤,附完整命令与避坑指南,实现飞书内 @机器人即可获取实时联网信息,打造高效团队协作 AI 工具。

效果展示

准备工作

node.js安装

下载地址 https://nodejs.org/en/download

安装完成。

git 安装

下载地址 https://git-scm.com/install/windows

上图普通用户默认选择,我是程序员,因此选择第二项

接下来的步骤都是保持默认选择,点击Next,直到安装完成

安装完成。

权限配置

允许你的电脑运行本地脚本,解决 OpenClaw 安装时 “脚本禁止运行” 的报错。以管理员身份打开 PowerShell 运行命令

Set-ExecutionPolicy RemoteSigned -Force

验证命令

Get-ExecutionPolicy 

输出RemoteSigned ,权限设置完成。

详细步骤(正文)

开始安装openclaw

浏览器打开:https://openclaw.ai/ 滑到QuickStart处

用管理员权限打开poewershell

等待安装,期间会自动打开和关闭命令行窗口,如果等待时间超过5分钟还是这样,可以按回车键

安装完成, 剩余均为配置类问题 。我这里在openclaw安装完之后,没有自动触发 openclaw onboard交互式配置向导,因为我不是第一次安装的原因,系统已经存在某些文件。 执行命令:

openclaw onboard

选择Yes

模型选择

因为我打算使用免费的大模型 智谱GLM-4.7 Flash,

先获取智谱 API Key
1. 访问 智谱 AI 开放平台,注册 / 登录账号
2. 进入「API Keys」页面,创建新的 API Key(免费额度足够日常使用)
3. 复制生成的 API Key(格式类似:xxxx.xxxx

输入API key

这里一定要选择要用的模型,默认是GLM-5是收费的,回车

现在到了 选择对话渠道 的步骤,这里是 OpenClaw 用来和你交互的入口,我这里选择飞书

准备飞书凭证【机器人配置】


先去 飞书开放平台 创建「自建应用」我之前已经创建了机器人应用

​开启权限:im:messageim:chatcontact:user.base:readonly

获取 App ID 和 App Secret

这里是 OpenClaw 在飞书群聊中的响应规则,你可以根据需求选择:选择默认的
- 个人 / 办公使用:选 Allowlist,先控制范围,后续再按需加群
- 只想私聊用:选 **`Disabled

这里输入群ID,即会话ID

配置联网搜索能力

现在到了 联网搜索功能 的配置环节,这个功能让 Bot 能实时查资料、获取最新信息。选择DuckDuckGo,免费使用,由于服务器在国外,网络可能会差一些,但起码不收费。

现在到了 技能(Skills)配置 环节,这里是 OpenClaw 额外功能的开关(比如代码执行、文件操作、工具调用等)。

先选择No,尽快把流程跑通,以后需要的话,可以在配置

现在到了 Hooks(自动化钩子) 配置环节,这是用于自动化处理 Agent 命令的进阶功能。先默认跳过。

按空格选中,


按回车提交继续下一步


现在到了 网关服务(Gateway service) 的最后一步,配置文件已经更新完成,只需要处理服务重启即可。

安装完成,启动网关

openclaw gateway 

新打开powershell 执行命令openclaw dashboard
会自动打开浏览器网关页面:http://127.0.0.1:18789/chat?session=main

常见问题 & 踩坑记录

  • 报错怎么解决
  • 容易卡在哪

总结

Read more

ToClaw他来了!融合OpenClaw、网页AI、远程功能,更适合真正的办公落地

ToClaw他来了!融合OpenClaw、网页AI、远程功能,更适合真正的办公落地

随着AI技术的不断发展,人们越来越期望AI能够融入真实工作流,提高办公效率。在此背景下,ToClaw应运而生,它融合了OpenClaw的开源Agent技术与远程功能,为办公场景带来了全新的解决方案。 为什么这波“龙虾热”,值得认真对比一次? 这一轮中文互联网对 “龙虾” 的热情,本质上不是大家突然爱上了某个新名词,而是越来越多人开始意识到:AI 不该只待在聊天框里,它应该开始进入真实工作流,帮人查资料、碰文件、跑任务、管设备。 OpenClaw 之所以火,一个重要原因就在于它把“个人 AI 助手”这件事做得很具象。根据其 GitHub 官方说明,它主打 personal open source AI assistant,推荐用户通过 openclaw onboard 这个 onboarding wizard 完成设置;而在 Windows 环境下,官方还特别建议通过 WSL2

Flutter 三方库 mediapipe_core 的鸿蒙化适配指南 - 实现高性能的端侧 AI 推理库集成、支持多维视觉任务与手势/表情识别实战

Flutter 三方库 mediapipe_core 的鸿蒙化适配指南 - 实现高性能的端侧 AI 推理库集成、支持多维视觉任务与手势/表情识别实战

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 三方库 mediapipe_core 的鸿蒙化适配指南 - 实现高性能的端侧 AI 推理库集成、支持多维视觉任务与手势/表情识别实战 前言 在进行 Flutter for OpenHarmony 的智能化应用开发时,集成强大的机器学习(ML)能力是打造差异化体验的关键。mediapipe_core 是谷歌 MediaPipe 框架在 Dart 侧的核心封装库。它能让你在鸿蒙真机上实现极其流畅的人脸检测、手势追踪以及实时姿态估计。本文将深入探讨如何在鸿蒙系统下构建低功耗、高响应的端侧 AI 推理链路。 一、原原理性解析 / 概念介绍 1.1 基础原理 mediapipe_core 作为 MediaPipe 的“神经中枢”

Flutter 组件 deepseek 的适配 鸿蒙Harmony 实战 - 驾驭国产最强大模型 API、实现鸿蒙端 AI 原生对话与流式渲染的高效集成方案

Flutter 组件 deepseek 的适配 鸿蒙Harmony 实战 - 驾驭国产最强大模型 API、实现鸿蒙端 AI 原生对话与流式渲染的高效集成方案

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 组件 deepseek 的适配 鸿蒙Harmony 实战 - 驾驭国产最强大模型 API、实现鸿蒙端 AI 原生对话与流式渲染的高效集成方案 前言 在 AI 浪潮席卷全球的今天,大模型(LLM)已成为移动应用创新的核心引擎。而在众多的国产模型中,DeepSeek 凭借其卓越的算法效率和极致的性价比,正成为开发者们的“真香”选择。 将 DeepSeek 这种顶尖的认知能力,植入到全面拥抱智能化、万物互联的鸿蒙(OpenHarmony)系统中,将碰撞出怎样的火花? deepseek 库为 Flutter 提供了极简的 API 封装,它完美支持了 SSE(流式事件流)响应,能让你的鸿蒙 App

AIGC查重工具有什么?一篇帮你理清思路的实用指南

最近和几位研究生朋友聊天,发现大家对AIGC(人工智能生成内容)查重的焦虑感越来越强。有人熬夜改论文时突然想到:"如果我用ChatGPT润色过段落,会不会被查出来?"还有人投稿期刊时收到"AIGC疑似度过高"的反馈,急得直挠头。这种焦虑背后,是学术规范与AI技术碰撞下的真实困境——我们既需要AI辅助写作提高效率,又必须守住学术诚信的底线。今天就结合我的亲身经历,聊聊AIGC查重工具怎么选、怎么用。 一、为什么需要专门的AIGC查重工具? 去年我帮导师整理课题组论文时,曾闹过个乌龙。用普通文本查重工具检测一篇论文,重复率显示8%,导师却皱着眉头说:"这段方法论描述太'标准'了,像是AI生成的。"后来换了AIGC专用工具,果然检测出32%的AI生成概率。这件事让我意识到:传统查重和AIGC检测的核心逻辑完全不同。 传统查重工具(如知网、维普)主要比对已有文献库,通过字符匹配计算重复率。而AIGC检测工具则像"AI鉴AI专家&