用OpenClaw做飞书ai办公机器人(含本地ollama模型接入+自动安装skills+数据可视化)

用OpenClaw做飞书ai办公机器人(含本地ollama模型接入+自动安装skills+数据可视化)

执行git clone https://github.com/openclaw/openclaw克隆项目,执行cd openclaw进入项目

执行node --version看看node的版本是否大于等于22(没有node.js需自行安装),再执行npm install -g pnpm安装作为包管理器,并执行pnpm install安装依赖

首次执行pnpm ui:build构建 Web UI(会先安装 ui/ 目录的依赖)

执行pnpm build构建主程序

执行pnpm openclaw onboard --install-daemon运行配置向导(安装守护进程),完成初始化

按键盘右箭头选择Yes,同样Yes

任选一个模型提供商都行,没有对应的提供商的密钥可以跳过,如果是本地模型选vLLM(需用vLLM框架启动模型,有性能优势,但原生vLLM仅完全支持Linux的cuda)、Custom Provider(可以连接任何 OpenAI 或 Anthropic 兼容的端点,包括托管提供商和自托管端点)和 LiteLLM (最通用,能通过中间层转换支持任意后端,既支持云端也支持本地模型,也包括Ollama、vLLM、LM Studio、llama.cpp 等本地后端)

Custom Provider最方便,适合日常使用,支持范围:

  • ✅ Ollama(自动检测,无需配置)
  • ✅ vLLM(localhost:8000/v1
  • ✅ LM Studio(localhost:1234/v1
  • ✅ llama.cpp(localhost:8080/v1,需启动 ./llama-server
  • ✅ 自封装 API:任何你自己用 Python + Transformers 封装的 OpenAI-compatible 服务
  • ✅ LiteLLM 代理
  • ✅ Text Generation WebUI

a)使用本地模型及报错处理

Endpoint ID随便填

如果提示alias被占用可以不填Model alias或可到用户目录的隐藏目录.openclaw的openclaw.json删除类似红色框的部分

卡了很久,疑似报错

新开终端,在openclaw项目文件夹位置输入pnpm openclaw logs --follow,可发现关键报错原因是上下文窗口太小(这是 OpenClaw 2026.2 版本的硬性要求:contextWindow 必须 ≥ 16000,但 onboard 向导默认只设 4096)

先输入/exit退出

到用户目录的隐藏目录.openclaw的openclaw.json对本地模型的contextWindow设置至少16000

输入pnpm openclaw gateway restart重启

终端执行pnpm openclaw tui,输入问题,成功回答

b)使用云端模型

没有账号的话进行注册,密码需要数字和英文大小写

验证激活

按需安装对接软件的插件,不需要这些就选skip跳过

c)连接飞书

如果需要飞书,可以下载插件

打开https://open.feishu.cn/app,登录后点击创建企业自建应用

简单填写你的应用名称和应用描述,点击创建

点击凭证与基础信息,复制你的APP ID和APP Secret

点击创建版本,简单填写应用版本号和更新说明,点击保存及确认发布

忘记复制的话,回到凭证与基础信息,把你的APP ID和APP Secret粘贴到openclaw

选择中国版飞书

按需选择群聊响应策略

选项效果适用场景
Allowlist只在指定群聊响应推荐,安全可控,避免机器人到处乱回
Open所有群聊都响应(需@)团队小、群少,希望机器人随时待命
Disabled完全不在群聊响应仅私聊使用

如果担心机器人乱回答选 Allowlist,后续在配置文件中指定允许响应的群 ID,防止误触。

按需安装skills,需要的话选择安装方式,不需要就skip for now

Hooks 是可选的自动化触发器,建议先 Skip,后续按需开启

Hook作用适用场景
boot-md启动时自动加载指定 Markdown 文件作为系统提示每次启动都要加载固定指令集
bootstrap-extra-files启动时预加载额外文件到上下文需要预置知识库文件
command-logger自动记录所有命令到日志需要审计追踪操作历史
session-memory切换会话时自动保存/恢复上下文需要持久化记忆,重启后记得之前聊过什么

建议: 刚入门先 Skip for now,不影响核心功能。等熟悉后再根据实际需求开启,尤其是 session-memory 对长期对话体验提升明显。

Skip for now跳过多个步骤后

选择tui

选择tui

也可以打开http://127.0.0.1:18789/chat?session=main,更方便修改配置

后续直接启动可以选择pnpm openclaw dashboard --no-open

回到飞书,点击应用能力,再点击机器人中的“添加”按钮

点击创建版本

点击订阅方式的编辑按钮,选择长连接,然后点击添加事件

依次搜索四个事件并添加:1)用户进入与机器人的会话 2)解散群 3)机器人进群 4)接收消息

点击创建版本

简单填写你的应用版本号、更新说明和应用能力,点击发布

打开飞书,点击应用

打开测试,如果出现以下情况,到openclaw项目的终端执行pnpm openclaw pairing approve feishu 对应的配对码

激活完成后,继续测试飞书对话

在对话中切换模型

d)安装能发现skills的skills

执行npx skills add https://github.com/vercel-labs/skills --skill find-skills

选择openclaw

全局安装,采用符号链接,选择yes

继续yes

可以打开网站或命令行pnpm openclaw skills list验证find-skills是否安装

Mac启动前最好设置权限

执行调查任务,发现似乎没加载find-skills工具

让它自己分析找不到找不到的原因并自行加载find-skills

e)自动安装浏览器操作、数据可视化、高德地图的skills

切换模型

自动安装skills并执行playwright-skill打开浏览器

成功获取数据

创建访问链接成功

查看链接以及下载csv,看起来地图过于简化了

让它继续优化

打开下载文件和地图链接,看起来有所进步,但仍有不足,如果需要更准更美观的话建议换更智能的ai模型或或继续提要求或换工具

创作不易,禁止抄袭,转载请附上原文链接及标题

Read more

从敏捷到生成式:AIGC如何改变软件测试的全流程

从敏捷到生成式:AIGC如何改变软件测试的全流程

过去二十年,软件测试经历了两次重要范式变迁。 第一次是 瀑布式测试 → 敏捷测试。 第二次是 人工驱动测试 → 自动化测试。 而今天,随着生成式人工智能(AIGC)的兴起,软件测试正在经历第三次重大转型: 从“敏捷测试”走向“生成式测试(Generative Testing)”。 这种变化不仅仅是工具升级,而是测试方法论、测试流程和测试角色的全面重构。 本文将从工程实践的角度,系统分析 AIGC 如何重塑软件测试全流程,并给出可以落地的技术路径。 一、软件测试范式的三次演进 软件测试的发展基本可以分为三个阶段。 阶段核心特点主要问题瀑布测试测试在开发后期进行反馈周期长敏捷测试测试融入开发迭代人工成本高生成式测试AI参与测试设计与执行方法论正在形成 敏捷测试思想来自 Agile Testing: A Practical Guide for Testers and Agile Teams 以及 Continuous Delivery 提出的持续交付理念。 其核心思想包括: * 测试左移(Shift Left)

AI绘画:解锁商业设计新宇宙(6/10)

AI绘画:解锁商业设计新宇宙(6/10)

1.AI 绘画:商业领域的潜力新星 近年来,AI 绘画技术以惊人的速度发展,从最初简单的图像生成,逐渐演变为能够创造出高度逼真、富有创意的艺术作品。随着深度学习算法的不断优化,AI 绘画工具如 Midjourney、Stable Diffusion 等的出现,更是让这一技术走进了大众的视野,引发了广泛的关注和讨论。这些工具不仅操作简便,而且能够在短时间内生成多种风格的绘画作品,大大降低了绘画创作的门槛。 AI 绘画在商业领域展现出了巨大的潜力。据相关数据显示,2021 年中国 AI 绘画市场规模仅为 0.1 亿元,而预计到 2026 年将激增至 154.66 亿元 ,年复合增长率高达 244.1%。这一迅猛的增长趋势,反映出 AI 绘画在商业应用中的广阔前景。越来越多的企业开始认识到 AI 绘画的价值,并将其应用到广告、插画、

Vscode新手必看:GitHub Copilot从安装到实战的5个高效用法

Vscode新手必看:GitHub Copilot从安装到实战的5个高效用法 最近和几位刚入行的朋友聊天,发现他们虽然装了Vscode,也听说过GitHub Copilot的大名,但真正用起来的却不多。要么是觉得配置麻烦,要么是打开后只会傻傻地等它自动补全,完全没发挥出这个“AI结对程序员”的威力。这让我想起自己刚开始用Copilot那会儿,也是摸索了好一阵子才找到感觉。今天,我就把自己从安装到深度使用过程中,那些真正提升效率的实战心得整理出来,希望能帮你绕过那些坑,快速把Copilot变成你的开发利器。 GitHub Copilot远不止是一个高级的代码补全工具。当你真正理解它的工作模式,并学会与之高效“对话”时,它能在代码生成、逻辑解释、问题调试乃至学习新框架等多个维度,显著改变你的编程体验。这篇文章不会重复那些官网都有的基础操作,而是聚焦于五个经过实战检验的高效用法,让你从“会用”进阶到“精通”。 1. 环境准备与深度配置:不止是安装插件 很多教程把安装Copilot描述为“点一下按钮”那么简单,但要想获得流畅稳定的体验,一些前置准备和深度配置至关重要。这就像给赛车加油

YOLOv10n-GoldYolo:多旋翼无人机目标检测与识别实战指南_1

1. YOLOv10n-GoldYolo:多旋翼无人机目标检测与识别实战指南 🚀 欢迎来到YOLOv10n-GoldYolo的实战世界!在这篇指南中,我将带你深入了解如何将最新的YOLOv10模型应用于多旋翼无人机目标检测任务,并介绍我们的改进版本GoldYolo如何进一步提升检测性能。准备好了吗?让我们一起启航吧! 🚁 1.1. 引言 目标检测作为计算机视觉的核心任务之一,在无人机应用中扮演着至关重要的角色。无论是安防巡逻、农田监测还是物流配送,精准的目标检测能力都能极大提升无人机的实用价值。📸 YOLOv10作为目标检测领域的最新进展,在保持实时检测性能的同时显著提升了检测精度。然而,传统的YOLO系列模型在特征融合和信息处理方面仍存在一些局限性。在改进之前,YOLOv10主要采用以下特征处理策略: 首先,在多尺度特征融合方面,YOLOv10主要依赖PANet(Path Aggregation Network)结构进行特征金字塔构建。该结构通过自底向上和自顶向下的路径聚合实现多尺度特征融合,但存在以下不足:一是融合策略相对固定,缺乏对输入内容自适应调整的能力;二是