前置准备
核心依赖清单
- 环境要求:Windows 10+/macOS 12+/Linux(Ubuntu 22.04 最佳),4G 以上内存,无需独立 GPU。
- 必备工具:Docker+Docker Compose、Git(版本 2.40+)。
- 密钥准备:Kimi Code API Key(火山方舟/CodingPlan 获取,需实名认证)。
- 辅助工具:浏览器(Chrome/Edge 最新版)、IM 工具(飞书/企业微信)。
快速获取 Kimi K2.5 API Key
- 访问火山方舟控制台:https://ark.volces.com,注册并完成实名认证。
- 进入「API Key 管理」→「创建 API Key」,命名后生成密钥,复制 Access Key ID+Secret 保存至本地文本。
安装 Docker
# 通用一键安装脚本
curl -fsSL https://get.docker.com | bash -s docker --mirror Aliyun
# 验证安装成功
docker --version && docker compose version
Docker 一键部署 OpenClaw
拉取源码 + 构建镜像
# 1. 克隆 OpenClaw 中文开源版源码
git clone https://github.com/OpenClawChinese/OpenClaw.git
cd OpenClaw
# 2. 构建 Docker 镜像
docker build -t clawdbot:latest .
# 3. 创建数据持久化卷
docker volume create openclaw-data
初始化配置 + 启动服务
# 1. 初始化 OpenClaw 配置
docker run --rm -v openclaw-data:/root/.openclaw clawdbot:latest openclaw setup
# 2. 配置远程访问(设置 Token 防未授权登录)
docker run --rm -v openclaw-data:/root/.openclaw clawdbot:latest openclaw config set gateway.bind lan
docker run --rm -v openclaw-data:/root/.openclaw clawdbot:latest openclaw config set gateway.auth.token 你的自定义密码
# 3. 创建 docker-compose.yml 文件
cat > docker-compose.yml << EOF
version: '3.8'
services:
openclaw:
image: clawdbot:latest
container_name: openclaw-kimi
ports:
- "18789:18789"
volumes:
- openclaw-data:/root/.openclaw
restart: unless-stopped
command: openclaw gateway run --allow-unconfigured
volumes:
openclaw-data:
name: openclaw-data
EOF
# 4. 启动服务
docker compose up -d
# 验证启动成功
docker compose ps
# 查看实时日志
docker compose logs -f
验证部署
- 本地访问:浏览器打开 http://localhost:18789,输入设置的 Token 即可进入控制台。
- 远程访问:浏览器打开 http://服务器 IP:18789,输入 Token 即可(服务器需开放 18789 端口)。
Kimi K2.5 API 接入
方式 1:OpenClaw 内置配置
- 进入 OpenClaw 控制台,左侧导航栏点击「模型配置」→「自定义模型」。
- 选择「OpenAI 兼容接口」,填写以下参数:
- 模型名称:kimi-k2.5
- API Base URL:https://ark.cn-beijing.volces.com/api/coding
- API Key:填写之前获取的 Kimi Code API Key
- 最大 Token:2048
- 温度:0.3
- 点击「测试连接」,提示「连接成功」后保存配置。
方式 2:自定义 API 调用
安装依赖
pip install openai==1.13.3 python-dotenv
完整调用代码
import os
import base64
from openai import OpenAI
from dotenv import load_dotenv
load_dotenv()
client = OpenAI(
api_key=os.getenv("KIMI_API_KEY"),
base_url="https://ark.cn-beijing.volces.com/api/coding"
)
def kimi_text_chat(prompt):
completion = client.chat.completions.create(
model="kimi-k2.5",
messages=[{"role": "user", "content": prompt}],
temperature=0.3,
max_tokens=2048
)
return completion.choices[0].message.content
def kimi_multimodal_chat(prompt, image_path):
with open(image_path, "rb") as f:
image_data = base64.b64encode(f.read()).decode("utf-8")
completion = client.chat.completions.create(
model="kimi-k2.5",
messages=[{
"role": "user",
"content": [
{"type": "text", "text": prompt},
{"type": "image_url", "image_url": {"url": f"data:image/png;base64,{image_data}"}}
]
}],
temperature=0.5
)
return completion.choices[0].message.content
if __name__ == "__main__":
(kimi_text_chat())
多端远程控制配置
场景 1:飞书机器人配置
- 飞书开放平台创建机器人:登录飞书开发者后台→「企业自建应用」→「创建应用」。
- 配置事件与回调:
- 事件订阅:添加「im.message.p2p_msg」权限,订阅方式选「长链接」。
- 回调配置:请求地址填写 http://你的 IP:18789/feishu,Token 和 EncodingAESKey 随机生成并保存。
- 发布应用并测试:飞书后台「版本管理与发布」→「创建版本」→「发布到企业」。
OpenClaw 配置飞书插件:
docker exec -it openclaw-kimi bash
openclaw plugin enable feishu
openclaw config set feishu.token 飞书回调 Token
openclaw config set feishu.aes_key 飞书 EncodingAESKey
openclaw config set feishu.app_id 飞书应用 AppID
openclaw config set feishu.app_secret 飞书应用 AppSecret
openclaw gateway restart
场景 2:企业微信机器人配置
- 企业微信创建机器人:登录企业微信管理后台→「应用管理」→「智能机器人」→「API 模式创建」。
- 填写配置信息:请求 URL 填写 http://你的 IP:18789/wecom,复制系统生成的 Token 和 EncodingAESKey。
- 测试使用:企业微信通讯录中找到机器人,发送指令。
OpenClaw 配置企业微信插件:
docker exec -it openclaw-kimi bash
openclaw plugin enable wecom
openclaw config set wecom.token 企业微信 Token
openclaw config set wecom.aes_key 企业微信 EncodingAESKey
openclaw gateway restart
高频实战案例
案例 1:办公自动化 - Excel 批量处理 +PPT 一键生成
- 指令触发:「帮我批量处理 D 盘下的 Excel 文件,汇总所有表格的销售额数据,生成可视化图表,并基于汇总结果制作一份产品销售分析 PPT」。
- 核心原理:OpenClaw 调用 Kimi K2.5 生成处理脚本→自动执行脚本汇总数据→调用 PPT 生成 Skill→输出最终文件。
- 关键配置:提前在 OpenClaw 启用「excel-processor」和「ppt-generator」Skill。
案例 2:远程任务调度 - 定时推送行业资讯
- 效果:每天 9 点自动生成资讯并推送至个人飞书。
- 设置定时任务(容器内执行):
openclaw plugin enable cron
openclaw cron add --name "daily_news" --schedule "0 9 * * *" --command "kimi_text_chat('整理今日 AI 行业热点资讯,精简为 3 条核心内容,每条不超过 50 字') | openclaw feishu send --user_id 你的飞书 ID"
案例 3:多模态处理 -PDF 文档解析 + 内容提炼
- 发送指令 + 上传 PDF 文件:「解析这份 PDF 文档,提取核心观点,生成 100 字以内的摘要,并列出 3 个关键结论」。
- 核心能力:Kimi K2.5 多模态解析 PDF 内容→OpenClaw 整理格式→返回结构化结果。
常见问题处理
- Docker 启动失败:报错「端口占用」,修改 docker-compose.yml 中端口,执行
docker compose down && docker compose up -d。 - Kimi API 调用报错:检查密钥是否正确,确认火山方舟账号有调用额度,模型名称必须为 kimi-k2.5。
- 远程访问认证失败:未设置 gateway.auth.token,重新执行配置命令,访问时输入正确 Token。
- 显存/内存不足:Linux 系统可限制容器资源,修改 docker-compose.yml 添加 cpus: "1.0"、mem_limit: "2g" 参数。
- 数据丢失风险:严禁执行
docker compose down -v,仅用docker compose down停止服务。 - Skill 调用失败:启用 Skill 前检查依赖是否齐全,如 PPT 生成需安装 LibreOffice。
进阶优化
安全加固
# 限制仅指定 IP 可访问
openclaw config set gateway.allow_ips 192.168.1.0/24,你的公网IP
# 加密存储 API 密钥
openclaw config encrypt kimi.api_key
功能扩展
# 克隆 Skill 库并加载
git clone https://github.com/VoltAgent/awesome-openclaw-skills.git /root/.openclaw/skills
openclaw skill reload
性能调优
# docker-compose.yml 中添加资源限制和日志配置
services:
openclaw:
cpus: "1.0"
mem_limit: "2g"
logging:
driver: "json-file"
options:
max-size: "100m"
max-file: "5"
收尾验证
- 查看服务状态:
docker compose ps(所有服务状态为 Up 即正常)。 - 测试核心功能:发送指令「写一个简单的 Python HelloWorld 脚本」,AI 快速响应即部署成功。
- 开机自启配置:
docker compose enable openclaw-kimi。


