OpenClaw 服务器配置指南
本教程适用于在 Linux 服务器上部署 OpenClaw,实现 24 小时在线的 AI 助手服务。
环境准备
在开始之前,确保你的服务器满足以下基础条件。OpenClaw 对资源要求不高,但为了保证响应速度,建议至少配备 4GB 内存。
- 操作系统:推荐 Ubuntu 20.04 LTS 或 CentOS 7+。
- Python 版本:3.8 及以上。
- 网络环境:需能访问外网以拉取依赖和调用模型 API。
如果使用的是国内云服务器,记得提前配置好安全组规则,开放必要的端口。
安装 OpenClaw
我们采用 pip 进行安装,这种方式最轻量且易于维护。
# 创建虚拟环境(可选,但推荐)
python3 -m venv openclaw_env
source openclaw_env/bin/activate
# 安装核心包
pip install openclaw-core
这里有个细节要注意:如果遇到 ssl 相关报错,通常是系统根证书缺失,运行 apt-get install ca-certificates 即可解决。
配置模型提供商
OpenClaw 支持多种大模型后端。你需要在配置文件中指定对应的 API Key 和 Endpoint。
编辑 config.yaml 文件,填入你的密钥信息。注意不要将配置文件提交到 Git 仓库,建议加入 .gitignore。
model_provider:
type: "openai"
api_key: "sk-xxxxxxxxxxxxxxxxxxxxxx"
base_url: "https://api.openai.com/v1"
实际运行时,如果模型响应超时,可以尝试调整 timeout 参数,或者切换到一个更稳定的节点。
配置飞书集成
为了让机器人能在飞书群里工作,我们需要创建一个应用并获取 Webhook 地址。
- 登录飞书开发者后台,创建自建应用。
- 开启"消息接收"权限,获取 Bot Token。
- 在 OpenClaw 配置中填入 Webhook URL。
这一步最容易出错的是权限问题,确保应用已发布并授权给目标群组。
设置 systemd 服务
为了让服务开机自启并在崩溃后自动重启,我们需要编写一个 systemd unit 文件。
[Unit]
Description=OpenClaw AI Service
After=network.target
[Service]
Type=simple
User=www-data
WorkingDirectory=/opt/openclaw
ExecStart=/opt/openclaw/openclaw_env/bin/python main.py
=always
=multi-user.target

