Docker安装OpenClaw:使用智谱AI的完整指南(国内镜像加速版)

一、项目介绍

OpenClaw是一款本地运行、可自托管的AI执行引擎,主打"从给建议到做事情"的能力跃迁——它并非被动响应的聊天机器人,而是能通过自然语言指令,自主规划并完成全流程任务的"数字员工"。与传统对话式AI工具不同,OpenClaw的核心定位是本地优先,所有用户数据默认存储于用户自有设备,彻底实现数据主权与隐私安全自主。

核心优势:跨平台支持、本地模型部署、安全隔离、场景适配、部署便捷

二、环境准备

1. 系统要求

  • 操作系统:Ubuntu 20.04+/Debian 11+(推荐)
  • 内存:最低2GB,推荐4GB以上
  • 硬盘:至少500MB可用空间
  • 网络:稳定联网(用于下载依赖,调用云端AI需联网)

2. 安装Docker(国内镜像加速版)

bash

1# 更新系统并安装必要工具 2sudo apt update && sudo apt upgrade -y 3sudo apt install -y ca-certificates curl gnupg lsb-release 4 5# 添加Docker官方GPG密钥 6curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo gpg --dearmor -o /usr/share/keyrings/docker-archive-keyring.gpg 7 8# 添加Docker仓库 9echo "deb [arch=$(dpkg --print-architecture) signed-by=/usr/share/keyrings/docker-archive-keyring.gpg] https://download.docker.com/linux/ubuntu $(lsb_release -cs) stable" | sudo tee /etc/apt/sources.list.d/docker.list > /dev/null 10 11# 安装Docker 12sudo apt update 13sudo apt install -y docker-ce docker-ce-cli containerd.io docker-compose-plugin 14 15# 配置国内镜像加速(轩辕镜像) 16sudo mkdir -p /etc/docker 17sudo tee /etc/docker/daemon.json <<-'EOF' 18{ 19 "registry-mirrors": [ 20 "https://docker.xuanyuan.run", 21 "https://docker.m.daocloud.io" 22 ] 23} 24EOF 25 26# 重启Docker服务 27sudo systemctl daemon-reload 28sudo systemctl restart docker 29 30# 验证安装 31docker --version 32docker compose version
重要提示:使用docker compose命令时,必须将-d参数放在up命令之后,即docker compose up -d,否则会报错。

三、部署OpenClaw(智谱AI版)

1. 创建部署目录

bash

1mkdir -p /opt/openclaw && cd /opt/openclaw

2. 创建docker-compose.yml文件

yaml

1version: '3.8' 2 3services: 4 openclaw: 5 # 使用轩辕镜像源加速拉取 6 image: docker.xuanyuan.run/alpine/openclaw:latest 7 restart: unless-stopped 8 ports: 9 - "18789:18789" 10 environment: 11 # 设置模型提供商为自定义 12 - MODEL_PROVIDER=custom 13 14 # 智谱AI API Key(从智谱开放平台获取) 15 - CUSTOM_API_KEY=your_zhipu_api_key 16 17 # 智谱AI的Base URL 18 - CUSTOM_BASE_URL=https://open.bigmodel.cn/api/paas/v4 19 20 # 使用的模型ID(如glm-4, glm-4-6b, glm-4-air) 21 - CUSTOM_MODEL_ID=glm-4 22 volumes: 23 - ./data:/app/data 24 - ./config:/app/config
替换说明:请将your_zhipu_api_key替换为你的智谱AI API Key。

3. 获取智谱AI API Key

  1. 访问智谱开放平台
  2. 登录后点击右上角用户头像 → "API密钥"
  3. 点击"新建API密钥",复制生成的Key(格式通常为xxxx.yyyy

4. 启动服务

bash

1# 启动OpenClaw服务(后台运行) 2docker compose up -d 3 4# 查看服务状态 5docker compose ps 6 7# 查看启动日志 8docker compose logs -f

四、验证与访问

  1. 获取Token(用于访问Web界面):
1docker compose exec openclaw openclaw token generate --admin
  1. 访问控制台
    在浏览器中打开 http://<你的服务器IP>:18789/?token=<生成的Token>
  2. 验证AI功能
    在控制台发送一条消息,如"你好",应能收到智谱AI的回复。

五、常见问题解决

1. 镜像拉取失败

  • 原因:网络问题导致无法访问Docker Hub
  • 解决:确保已正确配置/etc/docker/daemon.json中的国内镜像源

2. 智谱AI连接失败

  • 原因:API Key错误或Base URL不正确
  • 解决
    1. 确认API Key正确无误
    2. 检查CUSTOM_BASE_URL是否为https://open.bigmodel.cn/api/paas/v4
    3. 确认CUSTOM_MODEL_ID与智谱平台开通的模型一致

3. 端口占用

  • 原因:18789端口被其他服务占用
  • 解决:修改docker-compose.yml中的端口映射,如- "18790:18789"

六、进阶配置

1. 使用GLM-5模型

yaml

1environment: 2 - CUSTOM_MODEL_ID=glm-5

2. 配置Nginx反向代理(生产环境推荐)

nginx

1server { 2 listen 443 ssl; 3 server_name your-domain.com; 4 5 ssl_certificate /etc/nginx/ssl/cert.pem; 6 ssl_certificate_key /etc/nginx/ssl/key.pem; 7 8 location / { 9 proxy_pass http://localhost:18789; 10 proxy_set_header Host $host; 11 proxy_set_header X-Real-IP $remote_addr; 12 proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; 13 proxy_set_header X-Forwarded-Proto $scheme; 14 } 15}

七、总结

通过本文,你已成功使用Docker在本地部署了OpenClaw,并配置了智谱AI作为模型提供商。OpenClaw作为一款本地运行的AI执行引擎,能够让你在保证数据隐私的同时,享受强大的AI任务执行能力。

核心要点:使用国内镜像加速Docker安装,解决网络问题通过环境变量配置智谱AI,实现无缝对接通过Docker容器化部署,确保环境隔离与安全性

Read more

Flutter 三方库 matrix 鸿蒙终端底层复杂超维数学算力适配突破:无缝植入极限级张量系统与密集线性代数矩阵运算推演算法,解锁端侧图形处理边界-适配鸿蒙 HarmonyOS ohos

Flutter 三方库 matrix 鸿蒙终端底层复杂超维数学算力适配突破:无缝植入极限级张量系统与密集线性代数矩阵运算推演算法,解锁端侧图形处理边界-适配鸿蒙 HarmonyOS ohos

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 三方库 matrix 鸿蒙终端底层复杂超维数学算力适配突破:无缝植入极限级张量系统与密集线性代数矩阵运算推演算法,全面解锁端侧图形视觉处理边界并拔高数据分析算力上限 在图形学渲染、物理引擎模拟、复杂地理坐标转换以及端侧小型机器学习框架中,底层的矩阵运算(Matrix Operations)是决速步骤。matrix 库是一个专注于高性能线性代数计算的 Dart 库。本文将详解该库在 OpenHarmony 环境下的适配与实战应用。 封面 前言 什么是 matrix?它为 Dart 提供了一套类似于 NumPy 的多维数组运算接口。在鸿蒙操作系统这种强调极致流畅度和复杂视觉动效的系统中,利用高效的矩阵算法可以显著提升自定义 Canvas 绘图或实时传器数据处理的性能,避免因 Dart 层的低效循环导致的 UI 掉帧。 一、原理解析 1.1 基础概念 matrix 库核心基于

By Ne0inhk
Python连接和操作Elasticsearch详细指南

Python连接和操作Elasticsearch详细指南

Python连接和操作Elasticsearch详细指南 * 一、服务器端配置 * 1. 修改 Elasticsearch 配置文件 * 2. 开放防火墙端口 * 二、本地 Python 连接 Elasticsearch * 1. 连接 Elasticsearch * 2. 索引操作 * 3. 文档操作 * 4. 搜索内容 * 5. 聚合查询 * 6. 批量操作 * 三、注意事项 * 四、故障排除 * 结论 Elasticsearch 是一个强大的搜索引擎,广泛应用于数据存储和搜索场景。通过 Python,我们可以方便地与 Elasticsearch 进行交互。本文将详细介绍如何在本地使用 Python 连接到服务器上的 Elasticsearch,并进行基本的操作。 一、服务器端配置 在开始之前,确保你的 Elasticsearch

By Ne0inhk

如何用Qwen2.5做代码生成?0.5B模型Python调用详细步骤

如何用Qwen2.5做代码生成?0.5B模型Python调用详细步骤 1. 为什么选择Qwen2.5-0.5B做代码生成? 你是不是也遇到过这样的场景:写个脚本卡在某个函数上,查文档太慢,搜答案又一堆不相关的?或者只是想快速生成一段处理CSV的代码,但懒得从头敲?这时候,一个轻量、快速、能理解中文指令的AI助手就特别实用。 Qwen2.5-0.5B-Instruct 正是为此而生。它是通义千问Qwen2.5系列中最小的成员,只有约5亿参数,模型文件不到1GB,但它可不是“缩水版”。经过专门的指令微调,它对中文语境下的任务理解非常到位,尤其是像“写个Python函数来读取Excel并去重”这种具体需求,回答得很接地气。 最关键的是——它不需要GPU。你在一台普通的云服务器、甚至本地笔记本的CPU上就能跑起来,响应速度还很快。不像动辄几十GB显存的大模型,这个小家伙特别适合集成到工具链里,做自动化代码辅助。 我最近就在一个数据清洗项目里用它当“编程搭子”,每次要写重复逻辑时就丢一句“帮我写个函数,输入是字典列表,按某个字段去重”,几秒钟就出结果,改改变量名就能用,

By Ne0inhk

Python MCP实战:构建 FastAPI 服务端与客户端示例&MCP客户端调用

引言 在现代微服务架构中,服务间的通信协议选择至关重要。除了常见的 RESTful API、gRPC 等,MCP(Message-oriented Communication Protocol)作为一种面向消息的通信协议,也逐渐在特定场景中展现出其优势。本文将通过一个具体的 Python 示例,演示如何基于 fastapi-mcp 和 mcp 库,构建一个 MCP 服务端和客户端,并实现工具(Tool)的远程调用。 服务端将使用 FastAPI 框架,通过 fastapi-mcp 库将一个 API endpoint 暴露为 MCP 工具。客户端则会演示如何连接到 MCP 服务,列出可用的工具,并远程调用它。 核心组件: * 服务端 (main.py): 一个基于 FastAPI

By Ne0inhk