基于腾讯云轻量应用服务器部署 OpenClaw 并接入 QQ 与飞书机器人
OpenClaw 是一款开源 AI Agent 框架,支持通过自然语言控制本地或云端资源。相比本地部署,使用云服务器能更好地隔离风险(如 API Key 泄露),且云厂商通常提供现成的镜像环境,省去了复杂的 WSL 配置过程。本文将以腾讯云轻量应用服务器为例,演示如何快速搭建 OpenClaw,接入主流大模型及 IM 通道,并安装实用技能包。
1. 购买服务器
建议直接选择带有 OpenClaw 预装镜像的腾讯云轻量应用服务器。默认操作系统通常为 OpenCloudOS 9(兼容 CentOS)或 Ubuntu。若对系统兼容性有更高要求,也可自行安装 Ubuntu 后手动部署。
- 安全考虑:云服务器环境相对独立,即使配置不当,风险也主要局限于服务器本身,不会波及个人电脑文件。
- 网络延迟:连接国内大模型(如 GLM、Qwen、混元)建议使用国内节点;若需调用海外模型(如 ChatGPT),则需租赁海外服务器。
2. 进入应用管理界面
登录腾讯云控制台,进入【轻量应用服务器】页面,找到已创建的实例。点击服务器名称,随后选择【应用管理】标签页。
在此界面可以查看服务状态、访问终端(orcaterm)以及管理已安装的应用组件。点击'登录'即可进入 Linux 终端进行命令行操作。
3. 连接大模型
OpenClaw 支持多种大模型接口,需在应用管理界面的模型配置中填入对应的 API Key 和 Base URL。注意不同平台的 Token 获取方式略有差异。
常用模型配置
- 智谱清言 (GLM):需前往智谱开放平台获取 API Key。
- 腾讯混元:免费额度用完即停,建议在资源管理中确认余额。
- DeepSeek:官方平台可直接生成 API Key。
- 通义千问:可通过阿里云百炼平台或灵积平台获取。若使用免费额度,务必在后台开启'免费额度用完即停',防止因未监控导致意外扣费。
自定义模型
若应用管理内置列表不包含所需模型,可在'自定义模型'中添加。需确保模型兼容 OpenAI/Anthropic 协议。例如配置 Qwen 时,Base URL 应填写 SDK 支持的地址而非普通 HTTP 请求地址。
4. 连接 IM 通道
OpenClaw 支持同时接入多个即时通讯工具,互不干扰。以下以 QQ 和飞书为例。
QQ 机器人配置
- 账号准备:QQ 号需实名认证并绑定手机号。
- 创建应用:登录 QQ 开放平台,创建机器人并获取 AppID 和 AppSecret。
- 沙箱配置:在机器人首页配置沙箱成员,添加自己的 QQ 号以便测试。
- 应用内配置:将 AppID 和 AppSecret 填入腾讯云 OpenClaw 应用的 QQ Channel 配置项中。
- 扫码验证:在消息列表配置中扫描二维码,完成绑定后即可开始对话。
飞书机器人配置
- 创建应用:登录 飞书开放平台,创建企业自建应用。
- 添加能力:勾选'机器人'能力,复制 App ID 和 App Secret 至 OpenClaw 配置。
- 权限设置:
- 订阅事件:添加'接收信息'等必要事件。
- 权限导入:在权限管理处批量导入如下 Scope JSON,确保机器人具备发送消息、读取上下文等权限:


