用OpenClaw做飞书ai办公机器人(含本地ollama模型接入+自动安装skills+数据可视化)

用OpenClaw做飞书ai办公机器人(含本地ollama模型接入+自动安装skills+数据可视化)

执行git clone https://github.com/openclaw/openclaw克隆项目,执行cd openclaw进入项目

执行node --version看看node的版本是否大于等于22(没有node.js需自行安装),再执行npm install -g pnpm安装作为包管理器,并执行pnpm install安装依赖

首次执行pnpm ui:build构建 Web UI(会先安装 ui/ 目录的依赖)

执行pnpm build构建主程序

执行pnpm openclaw onboard --install-daemon运行配置向导(安装守护进程),完成初始化

按键盘右箭头选择Yes,同样Yes

任选一个模型提供商都行,没有对应的提供商的密钥可以跳过,如果是本地模型选vLLM(需用vLLM框架启动模型,有性能优势,但原生vLLM仅完全支持Linux的cuda)、Custom Provider(可以连接任何 OpenAI 或 Anthropic 兼容的端点,包括托管提供商和自托管端点)和 LiteLLM (最通用,能通过中间层转换支持任意后端,既支持云端也支持本地模型,也包括Ollama、vLLM、LM Studio、llama.cpp 等本地后端)

Custom Provider最方便,适合日常使用,支持范围:

  • ✅ Ollama(自动检测,无需配置)
  • ✅ vLLM(localhost:8000/v1
  • ✅ LM Studio(localhost:1234/v1
  • ✅ llama.cpp(localhost:8080/v1,需启动 ./llama-server
  • ✅ 自封装 API:任何你自己用 Python + Transformers 封装的 OpenAI-compatible 服务
  • ✅ LiteLLM 代理
  • ✅ Text Generation WebUI

a)使用本地模型及报错处理

Endpoint ID随便填

如果提示alias被占用可以不填Model alias或可到用户目录的隐藏目录.openclaw的openclaw.json删除类似红色框的部分

卡了很久,疑似报错

新开终端,在openclaw项目文件夹位置输入pnpm openclaw logs --follow,可发现关键报错原因是上下文窗口太小(这是 OpenClaw 2026.2 版本的硬性要求:contextWindow 必须 ≥ 16000,但 onboard 向导默认只设 4096)

先输入/exit退出

到用户目录的隐藏目录.openclaw的openclaw.json对本地模型的contextWindow设置至少16000

输入pnpm openclaw gateway restart重启

终端执行pnpm openclaw tui,输入问题,成功回答

b)使用云端模型

没有账号的话进行注册,密码需要数字和英文大小写

验证激活

按需安装对接软件的插件,不需要这些就选skip跳过

c)连接飞书

如果需要飞书,可以下载插件

打开https://open.feishu.cn/app,登录后点击创建企业自建应用

简单填写你的应用名称和应用描述,点击创建

点击凭证与基础信息,复制你的APP ID和APP Secret

点击创建版本,简单填写应用版本号和更新说明,点击保存及确认发布

忘记复制的话,回到凭证与基础信息,把你的APP ID和APP Secret粘贴到openclaw

选择中国版飞书

按需选择群聊响应策略

选项效果适用场景
Allowlist只在指定群聊响应推荐,安全可控,避免机器人到处乱回
Open所有群聊都响应(需@)团队小、群少,希望机器人随时待命
Disabled完全不在群聊响应仅私聊使用

如果担心机器人乱回答选 Allowlist,后续在配置文件中指定允许响应的群 ID,防止误触。

按需安装skills,需要的话选择安装方式,不需要就skip for now

Hooks 是可选的自动化触发器,建议先 Skip,后续按需开启

Hook作用适用场景
boot-md启动时自动加载指定 Markdown 文件作为系统提示每次启动都要加载固定指令集
bootstrap-extra-files启动时预加载额外文件到上下文需要预置知识库文件
command-logger自动记录所有命令到日志需要审计追踪操作历史
session-memory切换会话时自动保存/恢复上下文需要持久化记忆,重启后记得之前聊过什么

建议: 刚入门先 Skip for now,不影响核心功能。等熟悉后再根据实际需求开启,尤其是 session-memory 对长期对话体验提升明显。

Skip for now跳过多个步骤后

选择tui

选择tui

也可以打开http://127.0.0.1:18789/chat?session=main,更方便修改配置

后续直接启动可以选择pnpm openclaw dashboard --no-open

回到飞书,点击应用能力,再点击机器人中的“添加”按钮

点击创建版本

点击订阅方式的编辑按钮,选择长连接,然后点击添加事件

依次搜索四个事件并添加:1)用户进入与机器人的会话 2)解散群 3)机器人进群 4)接收消息

点击创建版本

简单填写你的应用版本号、更新说明和应用能力,点击发布

打开飞书,点击应用

打开测试,如果出现以下情况,到openclaw项目的终端执行pnpm openclaw pairing approve feishu 对应的配对码

激活完成后,继续测试飞书对话

在对话中切换模型

d)安装能发现skills的skills

执行npx skills add https://github.com/vercel-labs/skills --skill find-skills

选择openclaw

全局安装,采用符号链接,选择yes

继续yes

可以打开网站或命令行pnpm openclaw skills list验证find-skills是否安装

Mac启动前最好设置权限

执行调查任务,发现似乎没加载find-skills工具

让它自己分析找不到找不到的原因并自行加载find-skills

e)自动安装浏览器操作、数据可视化、高德地图的skills

切换模型

自动安装skills并执行playwright-skill打开浏览器

成功获取数据

创建访问链接成功

查看链接以及下载csv,看起来地图过于简化了

让它继续优化

打开下载文件和地图链接,看起来有所进步,但仍有不足,如果需要更准更美观的话建议换更智能的ai模型或或继续提要求或换工具

创作不易,禁止抄袭,转载请附上原文链接及标题

Read more

BeyondCompare安装(永久免费使用+全网最详细版)

BeyondCompare安装(永久免费使用+全网最详细版)

一.下载: * 阿里云盘(不限速) https://www.alipan.com/s/WaG1z54BQ2U 官网下载(速度较慢): https://www.scootersoftware.com/download.php 二.安装(无脑下一步即可) 三.永久免费使用: 1. 在搜索栏中输入 regedit ,打开注册表 2. 删除项目:计算机 \HKEY_CURRENT_USER\Software\ScooterSoftware\Beyond Compare 4\CacheId 修改注册表 四.每周自动删掉CacheId: 1.创建删除CacheId脚本,命名为freshBeyondcompare4.bat(注意:这里不要放在有中文路径的文件夹下) ```python # 内容如下:

By Ne0inhk
最新版 GLM-5 全栈实战全教程:从本地开源部署到 API 接入(多 Agent 架构 + 全栈编程 + 就业级项目实战)

最新版 GLM-5 全栈实战全教程:从本地开源部署到 API 接入(多 Agent 架构 + 全栈编程 + 就业级项目实战)

一、背景与技术概述 随着开源大模型技术的快速迭代,GLM-5 系列凭借优秀的指令遵循能力、长上下文支持、轻量化部署适配性与商用友好的开源协议,成为企业级AI落地与个人开发者技术进阶的核心选型之一。 本文以问题驱动为核心,完整覆盖从本地开源部署到工程化API封装、多Agent架构设计、全栈项目实战的全流程,解决开发者在大模型落地过程中面临的部署门槛高、工程化能力不足、Agent架构落地难、全栈项目缺乏可复用方案等核心痛点。本文所有实操步骤均经过生产环境验证,代码可直接复用,适配就业级项目的技术要求与企业落地标准。 1.1 GLM-5 核心技术特性 * 开源协议:Apache 2.0 协议,支持商用二次开发,无额外授权门槛 * 核心能力:支持128K超长上下文窗口,原生支持函数调用、多模态理解、结构化输出,指令遵循准确率较前代提升42% * 部署适配:原生支持FP8/INT4/AWQ/GPTQ多精度量化,最低可在16G显存环境完成流畅推理,适配消费级显卡与企业级GPU集群 * 性能优化:基于稀疏注意力架构与PagedAttention机制,推理吞吐量较同参数量模型提升3倍,

By Ne0inhk

(PLL时钟进阶)差分与单端时钟的硬件实现与抗噪优化

1. 差分与单端时钟的基础概念 在数字电路设计中,时钟信号的质量直接影响系统的稳定性和性能。差分时钟和单端时钟是两种常见的时钟传输方式,它们在硬件实现和抗干扰能力上有显著差异。 单端时钟采用单根信号线传输时钟信号,参考地平面作为返回路径。这种方式简单直接,但容易受到地电平差异和环境噪声的影响。我在实际项目中遇到过这样的情况:当单端时钟线附近有大电流切换时,时钟信号会出现明显的抖动,导致系统时序紊乱。 差分时钟则采用一对相位相反的信号线(P端和N端)传输时钟信号。接收端通过比较两个信号的差值来还原时钟信息。这种方式具有天然的共模噪声抑制能力,我在多个高速项目中实测发现,差分时钟在复杂电磁环境下的稳定性明显优于单端时钟。 Xilinx FPGA的时钟输入引脚分为差分时钟专用引脚(Differential Clock Capable Pin)和单端时钟专用引脚(Single Ended Clock Capable Pin)。以K7系列为例,差分时钟引脚通常成对出现,如CLK_P和CLK_N,而单端时钟引脚则是独立的。 2. Xilinx FPGA中的硬件实现 2.1 差分时钟的

By Ne0inhk
机器人为什么总在“最后一厘米”失败?RoboBrain 2.5 给出解法

机器人为什么总在“最后一厘米”失败?RoboBrain 2.5 给出解法

过去一年,具身智能的“视觉理解 + 语言推理”进步明显,但从实验室演示走向真实部署,经常遇到“看得见”但“做不对”的问题。这源于两个长期被低估的关键短板:空间维度的度量盲区,以及时间维度的过程建模不足。 在空间不准上,模型虽能理解2D图像中的目标与关系,却缺乏将其转化为真实尺度下可执行3D轨迹的能力,导致抓取、装配等操作因深度、距离等物理度量不准而失败;在过程不稳上,多数模型仍将动作生成简化为静态序列预测,依赖稀疏的成功标签,无法对操作过程中出现的打滑、偏移等动态变化做出实时评估与调整,致使长任务难以稳定完成。 这就要求新一代具身模型,需要把空间能力从“2D 指点”升级为“精确 3D 规划”,满足物理世界的度量约束与可执行性要求。 智源研究院正式发布新一代具身智能大脑基础模型 RoboBrain 2.5。作为 RoboBrain 系列的最新版本,RoboBrain 2.5 在延续通用感知、空间推理与时序建模能力底座的基础上,通过更大规模的高质量时空监督训练,完成了两项面向真实物理世界的关键升级:Precise

By Ne0inhk