用 OpenClaw 搭建企业微信 AI Agent:从零到自动化客服只需 30 分钟

本教程将指导您使用 OpenClaw 搭建一个企业微信 AI 客服,实现 7×24 小时自动回复。以阿里云为例,其他云服务商(如腾讯云)的流程也基本一致。

🎯 整体流程概览

  1. 准备账号:注册企业微信,并获取阿里云百炼大模型 API Key。
  2. 部署 OpenClaw:在云服务器上部署 OpenClaw 并接入大模型。
  3. 配置企业微信:创建应用或机器人,获取 CorpID、AgentID、Secret 等凭证。
  4. 打通连接:将企业微信的回调地址指向 OpenClaw 服务。
  5. 测试优化:在微信中测试对话,并通过优化知识库提升准确率。

🛠️ 一、准备工作 (约 5 分钟)

  1. 企业微信
    • 注册并认证企业微信(个人也可免费创建用于测试)。
    • 记录管理员账号,后续操作均需在管理后台进行。
  2. 阿里云账号
    • 注册并完成实名认证。
    • 开通「百炼大模型」服务,并创建一个 API Key,保存备用。
  3. 云服务器
    • 推荐配置:2核CPU、2GB内存及以上,系统盘40GB+。
    • 镜像选择:在轻量应用服务器中,搜索并选择 OpenClaw (原 Clawdbot/Moltbot) 官方镜像
    • 地域建议:选择中国香港、新加坡等免备案地域,方便外网访问。
    • 安全组:创建实例后,在安全组规则中放行 TCP 18789​ 端口。

🚀 二、部署 OpenClaw (约 10 分钟)

方式一:使用官方镜像(推荐)
  1. 登录服务器通过 SSH 工具(如 FinalShell)连接到您的云服务器。
  2. 配置环境变量执行以下命令,编辑配置文件:bashcd /opt/openclawcp .env.example .envvim .env在 .env文件中填入以下内容(API Key 替换为您的百炼 Key):envALIYUN_BAILIAN_API_KEY=你的百炼APIKeyALIYUN_BAILIAN_MODEL=qwen3-maxPORT=18789

启动服务执行以下命令启动 OpenClaw:bash

安装依赖

npm install --production

后台启动

nohup npm run start > openclaw.log 2>&1 &检查服务是否正常运行:bashcurl http://127.0.0.1:18789/health若返回 {"status":"ok"},则表示部署成功。

方式二:Docker 部署(生产推荐)

bash

docker run -d \

--name openclaw \

-p 18789:18789 \

-e ALIYUN_BAILIAN_API_KEY=你的APIKey \

-e ALIYUN_BAILIAN_MODEL=qwen3-max \

--restart always \

openclaw/openclaw:2026-stable


🏢 三、配置企业微信

方案 A:自建应用 (功能更全)
  1. 创建应用登录企业微信管理后台 → 应用管理​ → 自建应用​ → 创建应用。填写名称(如“AI 客服中心”)、上传头像并设置可见范围。
  2. 获取凭证在应用详情页,记录以下三个关键信息:
    • CorpID​ (企业 ID):位于「我的企业 → 企业信息」。
    • AgentID​ (应用 ID)
    • Secret​ (应用密钥):点击“查看”后,在企业微信客户端中复制。
  3. 设置回调进入应用详情 → 接收消息​ → 设置 API 接收
    • URLhttp://你的服务器公网IP:18789/wecom/app
    • 点击“随机获取” Token 和 EncodingAESKey,并保存。
方案 B:智能机器人 (配置简单)
  1. 创建机器人登录企业微信管理后台 → 安全与管理​ → 管理工具​ → 智能机器人​ → 创建机器人​ → API 模式创建
  2. 获取凭证填写机器人名称、简介和可见范围。点击“随机获取” Token 和 EncodingAESKey,并保存。
  3. 设置回调
    • URLhttp://你的服务器公网IP:18789/wecom/bot
    • 同样,先不要点击“创建”。

🔗 四、打通 OpenClaw 与企业微信

方式一:命令行配置(推荐)
  1. 安装插件bashopenclaw plugin install @openclaw/channel-wecom
  2. 配置参数根据您选择的方案,执行相应命令。
    • 自建应用配置bashopenclaw config set wecom.enabled trueopenclaw config set wecom.corpId 你的CorpIDopenclaw config set wecom.agentId 你的AgentIDopenclaw config set wecom.secret 你的Secretopenclaw config set wecom.token 你的Tokenopenclaw config set wecom.encodingAESKey 你的EncodingAESKey
    • 智能机器人配置bashopenclaw config set wecom.enabled trueopenclaw config set wecom.botToken 你的Tokenopenclaw config set wecom.botEncodingAESKey 你的EncodingAESKey
  3. 重启服务bashopenclaw gateway restart
方式二:Web 控制台配置
  1. 访问 http://你的服务器IP:18789/admin
  2. 进入 Channels → 企业微信
  3. 根据您选择的方案,填入对应的 CorpID、AgentID、Secret、Token、EncodingAESKey 等信息。
  4. 启用通道并保存,然后重启网关服务。

✅ 五、测试与优化

  1. 完成配置返回企业微信后台,点击之前未完成的“保存”或“创建”按钮。如果提示“已成功”,则表示打通成功。
  2. 开始对话
    • 自建应用:在企业微信客户端「工作台」找到并打开“AI 客服中心”应用。
    • 智能机器人:在「通讯录」中找到机器人并进入聊天窗口。发送消息如“你好”、“你们支持退款吗?”,测试 AI 是否回复。
  3. 优化知识库如果 AI 回答不准确,可以创建知识库文件(如 faq.md),放入常见问题与标准答案,然后同步到 OpenClaw。AI 将优先从知识库中检索答案,大幅提升准确率。
  4. 设置人工兜底在知识库或系统提示词(SOUL.md)中设定,当 AI 无法回答或用户明确要求人工时,回复“正在为您转接人工客服,请稍候…”,并通知人工客服介入。

Read more

AI从“动嘴”到“动手”:2026年,一只“小龙虾”如何重塑硅基生命的数字生存方式

引言:一场静默的革命 如果你回到2025年,问一个职场人:“你如何使用AI?”他大概率会告诉你:“我会把问题发给ChatBot,它给我一段文字建议,然后我复制粘贴,自己去操作软件、写代码、整理表格。”那时的AI,像是一位博学但手无缚鸡之力的“顾问”,它拥有无穷的知识,却无法替你按下任何一个回车键。 然而,当时针拨向2026年的春天,一切发生了翻天覆地的变化。在科技圈、在写字楼、甚至在大学生的宿舍里,人们口中高频出现的词汇不再是单纯的“大模型”,而是一只红色的“小龙虾”。 这并非夜宵摊上的麻辣美味,而是代号 OpenClaw 的开源人工智能体(AI Agent)框架。它的出现,标志着人类与机器的协作模式完成了一次历史性的跨越:从“咨询顾问模式”彻底转向了“数字员工模式”。没出小龙虾之前,是“你提需求,AI给答案,你自己做”;有了小龙虾之后,是“你提需求,小龙虾帮你做完”。 这不仅仅是一个工具的迭代,

New API 详解:新一代开源大模型统一网关与 AI 资产管理系统(深度 6000 字指南)

New API 详解:新一代开源大模型统一网关与 AI 资产管理系统(深度 6000 字指南) * 开篇:为什么我们需要一个“大模型统一网关”? * 一、项目背景与发展历程 * 二、核心特性详解(为什么 New API 比竞品强) * 1. 统一接口 + 多格式转换(最强兼容性) * 2. 智能路由与高可用 * 3. 精细计费与支付闭环(个人/企业必备) * 4. 现代化管理后台 * 5. 多语言 & 多租户 * 6. 扩展集成 * 7. 安全与可观测性 * 三、支持的模型与渠道(30+ 服务商,100+ 模型) * 四、部署安装完整教程(10 分钟上手)

人工智能:预训练语言模型与BERT实战应用

人工智能:预训练语言模型与BERT实战应用

人工智能:预训练语言模型与BERT实战应用 1.1 本章学习目标与重点 💡 学习目标:掌握预训练语言模型的核心思想、BERT模型的架构原理,以及基于BERT的文本分类任务实战流程。 💡 学习重点:理解BERT的双向注意力机制与掩码语言模型预训练任务,学会使用Hugging Face Transformers库调用BERT模型并完成微调。 1.2 预训练语言模型的发展历程与核心思想 1.2.1 为什么需要预训练语言模型 💡 传统的自然语言处理模型(如LSTM+词嵌入)存在两个核心痛点:一是需要大量标注数据才能训练出高性能模型,二是模型对语言上下文的理解能力有限。 预训练语言模型的出现解决了这些问题。它的核心思路是先在大规模无标注文本语料上进行预训练,学习通用的语言知识和语义表示,再针对特定任务进行微调。这种“预训练+微调”的范式,极大降低了对标注数据的依赖,同时显著提升了模型在各类NLP任务上的性能。 预训练语言模型的发展可以分为三个阶段: 1. 单向语言模型阶段:以ELMo为代表,通过双向LSTM分别学习正向和反向的语言表示,再拼接得到词向量。但ELMo本质还

腾讯AI两连发:QClaw vs WorkBuddy,谁才是真正的“AI打工人”?

腾讯AI两连发:QClaw vs WorkBuddy,谁才是真正的“AI打工人”?

文章目录 * 📖 介绍 📖 * 🏡 演示环境 🏡 * 📒 腾讯AI智能体"双雄"对比:QClaw vs WorkBuddy 📒 * 🔍 它们都从哪里来? * 🏢 [QClaw](https://qclaw.qq.com/):微信生态的"超级入口" * 💡 核心特点 * 🎸 适用人群 * ⚡ [WorkBuddy](https://workbuddycn.com/):企业办公的"全能搭档" * 💡 核心特点 * 🎸 适用人群 * 📊 核心功能对比 * 🎯 到底该选哪个? * ⚓️ 相关链接 ⚓️ 📖 介绍 📖 最近AI圈子里最火的话题,莫过于腾讯连续出招——先有开源界的 小龙虾 OpenClaw 在GitHub上掀起热潮,随后腾讯自己推出的 QClaw 和 WorkBuddy 也接踵而至。这三款产品虽然都打着"