本地部署中文OpenClaw 飞书机器人部署指南

本地部署中文OpenClaw 飞书机器人部署指南

适用场景:在 Windows 本地(PowerShell)一键部署 OpenClaw,使用阿里云百炼作为大模型后端,通过飞书长连接模式实现 AI 机器人。


安装skills工具参考:OpenClaw 最新必安装 10 个 Skills-ZEEKLOG博客

自动化发布小红书:OpenClaw 实现小红书自动化发文:操作指南


步骤 1:安装 OpenClaw(openclaw中文社区)
  1. 打开 PowerShell
  2. 执行以下命令一键安装:
# 在 PowerShell 中运行 iwr -useb https://clawd.org.cn/install.ps1 | iex
  • 安装过程会自动下载 Node.js、依赖等,耗时几分钟。
  • 安装完成后会自动进入配置向导,或提示你继续下一步。
步骤 2:运行首次配置向导
  1. 重新打开一个 CMD
  2. 向导启动后:
    • 第一步通常会问是否继续 → 选择 YES
    • 在选择大模型提供商时,选 阿里云百炼(或你想用的其他平台,如 OpenAI、deepseek 等)。
    • 后面会引导你输入 API Key。

输入命令启动配置向导:

openclaw-cn onboard
步骤 3:获取阿里云百炼 API Key
  1. 浏览器访问阿里云百炼控制台
  2. 登录后,进入左侧菜单 密钥管理创建 API Key
  3. 创建完成后,立即复制 Key(通常以 sk- 或 bk- 开头)。
  4. 返回 onboard 向导,在对应位置粘贴这个 Key 并继续。
步骤 4:配置飞书机器人渠道
  1. 在 onboard 向导中,选择配置 Feishu渠道。
  • 访问飞书开放平台
  • 创建企业自建应用 → 选择机器人类型 → 填写基本信息 → 创建。

选择机器人,继续下一步

输入内容(自定义)

2.在权限管理/批量导入/导出权限中清空原有权限,粘贴复制下方内容

{ "scopes": { "tenant": [ "aily:file:read", "aily:file:write", "application:application.app_message_stats.overview:readonly", "application:application:self_manage", "application:bot.menu:write", "cardkit:card:write", "contact:contact.base:readonly", "contact:user.employee_id:readonly", "corehr:file:download", "docs:document.content:read", "event:ip_list", "im:chat", "im:chat.access_event.bot_p2p_chat:read", "im:chat.members:bot_access", "im:message", "im:message.group_at_msg:readonly", "im:message.group_msg", "im:message.p2p_msg:readonly", "im:message:readonly", "im:message:send_as_bot", "im:resource", "sheets:spreadsheet", "wiki:wiki:readonly" ], "user": [ "aily:file:read", "aily:file:write", "contact:contact.base:readonly", "im:chat.access_event.bot_p2p_chat:read" ] } }
  • 在「凭证与基础信息」中复制 App ID 和 App Secret。
  • 进入「事件与回调」:
  • 订阅方式选择 长连接订阅方式(不可选 HTTP 回调)。
  • 添加事件:至少包含 im.message.receive_v1(接收消息)。
  • 保存设置。

注意:事件订阅和回调配置建议在openclaw部署完成后统一在飞书后台设置,避免向导卡住。

3.在指定位置输入刚才复制的飞书机器人App IDApp Secret,继续下一步直到向导完成。

步骤 5:启动网关服务

配置完成后,启动 OpenClaw 的网关(负责 WebSocket 长连接):

openclaw-cn gateway
  • 看到类似 “Listening on http://127.0.0.1:18789” 或 “Gateway ready” 即启动成功。
  • 保持这个窗口运行(或用 nohup / pm2 后台运行)。
步骤 6:访问管理后台并验证
  1. 浏览器打开命令中提示的网址(通常是 http://127.0.0.1:18789http://localhost:18789,可能带 token 参数)。
  2. 登录 OpenClaw 管理后台。
  3. 确认飞书渠道已连接:
    • 检查事件订阅是否为 长连接模式
    • 确认已添加的事件列表完整。
步骤 7:测试部署是否成功
  • 将机器人拉入飞书群或私聊。
  • 发送消息(如 @机器人 你好)。
  • 如果机器人正常回复(可能简单问候或调用百炼模型生成回答),则部署成功!

快速排错提示

  • onboard 卡住或报错 → 检查网络,重新运行 openclaw-cn onboard。
  • gateway 启动失败 → 检查端口 18789 是否被占用,可加参数 --port 其他端口。
  • 飞书不回复 → 确认选了“长连接”、事件已订阅、App ID/Secret/Key 无误。
  • 模型无响应 → 确认百炼 API Key 有效、配额充足。

Read more

文心一言是百度开发的AI对话工具,支持中文场景下的多轮对话、文本生成、知识问答等

理解文心一言的基础功能 文心一言是百度开发的AI对话工具,支持中文场景下的多轮对话、文本生成、知识问答等。其核心优势在于对中文语境的理解,包括成语、古诗词、网络用语等。熟悉基础指令如“总结这篇文章”“写一封商务邮件”能快速提升效率。 优化提问方式获得精准回答 避免模糊问题,尽量提供具体背景。例如“如何写工作周报”可改为“为互联网运营岗位写一份周报,需包含数据增长、活动复盘、下周计划三部分”。提问时加入角色设定(如“假设你是资深HR”)能增强回答的专业性。 处理复杂任务的拆分技巧 对于长文本生成或复杂问题,采用分步交互。先要求生成大纲,再针对各部分细化。例如撰写方案时,先输入“列出智能家居市场分析报告的5个核心章节”,再逐章补充内容。这种方式能减少输出偏差。 中文特色场景的应用案例 * 古诗词创作:输入“以春天为主题写一首七言绝句,包含‘燕子’意象” * 方言转换:尝试“把‘今天天气真好’翻译成粤语” * 公文写作:

Llama.cpp 全实战指南:跨平台部署本地大模型的零门槛方案

【个人主页:玄同765】 大语言模型(LLM)开发工程师|中国传媒大学·数字媒体技术(智能交互与游戏设计) 深耕领域:大语言模型开发 / RAG知识库 / AI Agent落地 / 模型微调 技术栈:Python / LangChain/RAG(Dify+Redis+Milvus)| SQL/NumPy | FastAPI+Docker ️ 工程能力:专注模型工程化部署、知识库构建与优化,擅长全流程解决方案        「让AI交互更智能,让技术落地更高效」 欢迎技术探讨/项目合作! 关注我,解锁大模型与智能交互的无限可能! 摘要 本文全面解析轻量级大模型推理框架 Llama.cpp,详细讲解其在 Windows(Winget)、Linux、macOS 三大平台的安装步骤,针对新手优化了模型获取、文件整理、可视化部署的全流程,涵盖命令行交互、OpenAI

部署Qwen3-VL-32b的踩坑实录:多卡跑大模型为何vLLM卡死而llama.cpp却能“大力出奇迹”?

部署Qwen3-VL-32b的踩坑实录:多卡跑大模型为何vLLM卡死而llama.cpp却能“大力出奇迹”?

踩坑实录:多卡跑大模型Qwen-VL,为何vLLM模型加载卡死而llama.cpp奇迹跑通还更快? 前言:部署经历 针对 Qwen2.5-32B-VL-Instruct 满血版模型的部署实战。 手头的环境是一台配备了 4张 NVIDIA A30(24GB显存) 的服务器。按理说,96GB的总显存足以吞下 FP16 精度的 32B 模型(约65GB权重)。然而,在使用业界标杆 vLLM 进行部署时,系统却陷入了诡异的“死锁”——显存占满,但推理毫无反应,最终超时报错。 尝试切换到 Ollama(底层基于 llama.cpp),奇迹发生了:不仅部署成功,而且运行流畅。这引发了我深深的思考:同样的硬件,同样模型,为何两个主流框架的表现天差地别? 本文将围绕PCIe通信瓶颈、Tensor Parallelism(张量并行) 与 Pipeline

Stable-Diffusion-v1-5-archive惊艳效果展示:35mm胶片风、赛博朋克、水墨国风案例

Stable-Diffusion-v1-5-archive惊艳效果展示:35mm胶片风、赛博朋克、水墨国风案例 很多人觉得Stable Diffusion 1.5已经是“老古董”了,跟不上现在各种新模型的花样。但说实话,经典之所以是经典,就是因为它足够稳定、可控,而且风格塑造能力极强。今天我就用 stable-diffusion-v1-5-archive 这个归档版本,给大家展示几个让我眼前一亮的生成效果,看看这个“老将”在特定风格下,能玩出什么新花样。 我们重点看三个风格:充满故事感的35mm胶片风、未来感爆棚的赛博朋克、以及意境深远的水墨国风。我会把生成这些图的提示词、参数设置都贴出来,你可以直接拿去用,看看能不能复现出同样惊艳的效果。 1. 核心能力与准备工作 在开始展示之前,我们先快速了解一下这个镜像能做什么,以及怎么快速上手。 1.1 它能做什么? Stable Diffusion v1.5 Archive 是一个开箱即用的经典文生图模型。它的核心就是:你输入一段文字描述,它给你生成一张对应的图片。别看它版本老,