用 OpenClaw 搭建企业微信 AI Agent:从零到自动化客服只需 30 分钟

本教程将指导您使用 OpenClaw 搭建一个企业微信 AI 客服,实现 7×24 小时自动回复。以阿里云为例,其他云服务商(如腾讯云)的流程也基本一致。

🎯 整体流程概览

  1. 准备账号:注册企业微信,并获取阿里云百炼大模型 API Key。
  2. 部署 OpenClaw:在云服务器上部署 OpenClaw 并接入大模型。
  3. 配置企业微信:创建应用或机器人,获取 CorpID、AgentID、Secret 等凭证。
  4. 打通连接:将企业微信的回调地址指向 OpenClaw 服务。
  5. 测试优化:在微信中测试对话,并通过优化知识库提升准确率。

🛠️ 一、准备工作 (约 5 分钟)

  1. 企业微信
    • 注册并认证企业微信(个人也可免费创建用于测试)。
    • 记录管理员账号,后续操作均需在管理后台进行。
  2. 阿里云账号
    • 注册并完成实名认证。
    • 开通「百炼大模型」服务,并创建一个 API Key,保存备用。
  3. 云服务器
    • 推荐配置:2核CPU、2GB内存及以上,系统盘40GB+。
    • 镜像选择:在轻量应用服务器中,搜索并选择 OpenClaw (原 Clawdbot/Moltbot) 官方镜像
    • 地域建议:选择中国香港、新加坡等免备案地域,方便外网访问。
    • 安全组:创建实例后,在安全组规则中放行 TCP 18789​ 端口。

🚀 二、部署 OpenClaw (约 10 分钟)

方式一:使用官方镜像(推荐)
  1. 登录服务器通过 SSH 工具(如 FinalShell)连接到您的云服务器。
  2. 配置环境变量执行以下命令,编辑配置文件:bashcd /opt/openclawcp .env.example .envvim .env在 .env文件中填入以下内容(API Key 替换为您的百炼 Key):envALIYUN_BAILIAN_API_KEY=你的百炼APIKeyALIYUN_BAILIAN_MODEL=qwen3-maxPORT=18789

启动服务执行以下命令启动 OpenClaw:bash

安装依赖

npm install --production

后台启动

nohup npm run start > openclaw.log 2>&1 &检查服务是否正常运行:bashcurl http://127.0.0.1:18789/health若返回 {"status":"ok"},则表示部署成功。

方式二:Docker 部署(生产推荐)

bash

docker run -d \

--name openclaw \

-p 18789:18789 \

-e ALIYUN_BAILIAN_API_KEY=你的APIKey \

-e ALIYUN_BAILIAN_MODEL=qwen3-max \

--restart always \

openclaw/openclaw:2026-stable


🏢 三、配置企业微信

方案 A:自建应用 (功能更全)
  1. 创建应用登录企业微信管理后台 → 应用管理​ → 自建应用​ → 创建应用。填写名称(如“AI 客服中心”)、上传头像并设置可见范围。
  2. 获取凭证在应用详情页,记录以下三个关键信息:
    • CorpID​ (企业 ID):位于「我的企业 → 企业信息」。
    • AgentID​ (应用 ID)
    • Secret​ (应用密钥):点击“查看”后,在企业微信客户端中复制。
  3. 设置回调进入应用详情 → 接收消息​ → 设置 API 接收
    • URLhttp://你的服务器公网IP:18789/wecom/app
    • 点击“随机获取” Token 和 EncodingAESKey,并保存。
方案 B:智能机器人 (配置简单)
  1. 创建机器人登录企业微信管理后台 → 安全与管理​ → 管理工具​ → 智能机器人​ → 创建机器人​ → API 模式创建
  2. 获取凭证填写机器人名称、简介和可见范围。点击“随机获取” Token 和 EncodingAESKey,并保存。
  3. 设置回调
    • URLhttp://你的服务器公网IP:18789/wecom/bot
    • 同样,先不要点击“创建”。

🔗 四、打通 OpenClaw 与企业微信

方式一:命令行配置(推荐)
  1. 安装插件bashopenclaw plugin install @openclaw/channel-wecom
  2. 配置参数根据您选择的方案,执行相应命令。
    • 自建应用配置bashopenclaw config set wecom.enabled trueopenclaw config set wecom.corpId 你的CorpIDopenclaw config set wecom.agentId 你的AgentIDopenclaw config set wecom.secret 你的Secretopenclaw config set wecom.token 你的Tokenopenclaw config set wecom.encodingAESKey 你的EncodingAESKey
    • 智能机器人配置bashopenclaw config set wecom.enabled trueopenclaw config set wecom.botToken 你的Tokenopenclaw config set wecom.botEncodingAESKey 你的EncodingAESKey
  3. 重启服务bashopenclaw gateway restart
方式二:Web 控制台配置
  1. 访问 http://你的服务器IP:18789/admin
  2. 进入 Channels → 企业微信
  3. 根据您选择的方案,填入对应的 CorpID、AgentID、Secret、Token、EncodingAESKey 等信息。
  4. 启用通道并保存,然后重启网关服务。

✅ 五、测试与优化

  1. 完成配置返回企业微信后台,点击之前未完成的“保存”或“创建”按钮。如果提示“已成功”,则表示打通成功。
  2. 开始对话
    • 自建应用:在企业微信客户端「工作台」找到并打开“AI 客服中心”应用。
    • 智能机器人:在「通讯录」中找到机器人并进入聊天窗口。发送消息如“你好”、“你们支持退款吗?”,测试 AI 是否回复。
  3. 优化知识库如果 AI 回答不准确,可以创建知识库文件(如 faq.md),放入常见问题与标准答案,然后同步到 OpenClaw。AI 将优先从知识库中检索答案,大幅提升准确率。
  4. 设置人工兜底在知识库或系统提示词(SOUL.md)中设定,当 AI 无法回答或用户明确要求人工时,回复“正在为您转接人工客服,请稍候…”,并通知人工客服介入。

Read more

【2025实测】12款主流降ai率工具大汇总,论文降aigc一篇搞定(含免费降ai率工具)

【2025实测】12款主流降ai率工具大汇总,论文降aigc一篇搞定(含免费降ai率工具)

写论文最怕什么?不是查重,而是那句——“AI率过高”。 现在越来越多学校开始严查论文降aigc报告。我当时AI率高达98%,整个人快崩溃。 为了救回这篇论文,我实测了市面上十几款降ai率工具,从中精选了这12款,有免费的也有付费的,这次全都总结给你,希望能帮你降低ai率。 1、笔灵AI —— 毕业论文首选(专业级降ai) 笔灵AI是我用过最靠谱、降AI率最稳的工具,没有之一。我那篇98%的论文,用它处理后,AI率稳定降到了10%以下。 传送门:https://ibiling.cn/paper-pass?from=ZEEKLOGjiangaigx818https://ibiling.cn/paper-pass?from=ZEEKLOGjiangaigx818 (建议复制到电脑端使用~) * 核心优势:它不是简单的同义词替换,而是采用AIGC重构算法,从句式、语法、逻辑结构上进行深层重构,让文本回归人类书面语风格,真正“去AI痕迹化”。 * 格式保留:这是它的“杀手锏”

【AI】高效交互的艺术:AI提示工程与大模型对话指南

【AI】高效交互的艺术:AI提示工程与大模型对话指南

🔥小龙报:个人主页 🎬作者简介:C++研发,嵌入式,机器人等方向学习者 ❄️个人专栏:《AI》 ✨ 永远相信美好的事情即将发生 文章目录 * 前言 * 一、ChatatGPT介绍 * 二、什么是提示工程? * 三、大语言模型的底层原理 * 四、AI的相关术语 * 五、如何与AI(以ChatatGPT为例)更好交流 * 5.1 使用AI的核心 * 5.2 提示组成结构 * 5.3 创建好的提示的策略 * 5.4 提示的类别 * 5.5 创建在和AI提示的进阶框架 * 5.6如何减少AI回答的空洞无味感 * 5.7 如何提高AI回答的可读性 * 六、使用AI的更多技巧 * 6.1 高效提示的原则 * 6.

元宇宙语言中枢:LLaMA Factory虚拟角色人格定制

元宇宙语言中枢:LLaMA Factory虚拟角色人格定制实战指南 在游戏开发中,为上百个NPC赋予独特的说话方式和人格特质是一项极具挑战性的任务。传统手工编写对话树不仅耗时耗力,还难以保持角色语言风格的一致性。本文将介绍如何使用LLaMA Factory这一开源大模型微调框架,通过虚拟角色人格定制技术,批量生成具有差异化性格特征的NPC对话内容。这类任务通常需要GPU环境支持,目前ZEEKLOG算力平台提供了包含该镜像的预置环境,可快速部署验证。 什么是LLaMA Factory虚拟角色人格定制? LLaMA Factory是一个全栈大模型微调框架,它简化了大型语言模型的训练、微调和部署流程。针对游戏NPC人格定制场景,其核心价值在于: * 支持多种主流模型:包括LLaMA、Mistral、Qwen、ChatGLM等,覆盖不同参数量级的语言模型 * 提供可视化微调界面:无需编写代码即可完成模型调参和训练 * 集成LoRA轻量化微调:显著降低显存消耗,适合批量处理多个角色人格 * 内置数据集支持:包含alpaca_gpt4_zh等常用微调数据集,开箱即用 提示:Lo

本地服务器部署Text generation并添加code llama实现远程多人协作

本地服务器部署Text generation并添加code llama实现远程多人协作

文章目录 * 前言 * 1. 本地部署Text generation Web UI * 2. 安装CodeLlama大模型 * 3. 实现公网远程使用Code Llama * 4. 固定Text generation Web UI公网地址 前言 本篇文章介绍如何在本地部署Text generation Web UI并搭建Code Llama大模型运行,并且搭建Code Llama大语言模型,结合Cpolar内网穿透实现公网可远程使用Code Llama。 Code Llama是一个可以使用文本提示生成代码的大型语言模型 (LLM)。可以使当前开发人员的工作流程更快、更高效,并降低学习编码人员的进入门槛。 Code Llama 有潜力用作生产力和教育工具,帮助程序员编写更强大、文档更齐全。 Text generation Web UI部署非常简便,不仅在github主页上直接提供了一键部署安装包,同时由于是web UI形式,直接通过浏览器即可操作,不过本地化部署,无法远程访问,这里我们结合cpolar工具实现从安装到最后实现远程访问。 那么接下来先在本地部署一