闲置服务器往往在跑完脚本后就吃灰,每月扣费却无实际产出。与其浪费资源,不如将其改造成 24 小时在线的 AI 助手。本文介绍如何利用腾讯云轻量应用服务器的 OrcaTerm AI 功能,一键部署 Openclaw,并配置 NVIDIA 模型及飞书远程控制。
快速部署 Openclaw
登录腾讯云控制台,进入实例列表。无需手动安装环境,直接在右上角点击 OrcaTerm AI 唤醒助手。
输入提示词:部署 OpenClaw
AI 助手会自动识别需求并引导完成部署。整个过程无需输入复杂命令,只需确认即可。
部署完成后,需手动运行初始化配置:
openclaw onboard --install-daemon
配置 AI 模型
为了获得更好的体验,建议接入 NVIDIA 提供的免费模型服务。
- 访问 build.nvidia.com 注册账号并获取 API Key。
- 再次唤醒 AI 助手,发送以下指令修改配置文件:
帮我打开 ~/.openclaw/openclaw.json 文件,在 models 部分增加下面的代码,注意:providers 外面还要加一层 models,如果原来配置有 models 就加到原来的里面
{
"models": {
"providers": {
"英伟达 nvidia": {
"baseUrl": "https://integrate.api.nvidia.com/v1",
"apiKey": "nvapi-你的密钥",
"api": "openai-completions",
"models": [
{
"id": "moonshotai/kimi-k2.5",
"name": "moonshotai/kimi-k2.5",
"reasoning": false,
"input": ["image", "text"],
"cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
"contextWindow": 200000,
"maxTokens": 8192
}
]
}
}
}
}
修改完成后,重启网关并测试:
openclaw gateway restart
openclaw tui
此时询问模型名称,验证是否生效。


