Docker安装OpenClaw:使用智谱AI的完整指南(国内镜像加速版)

一、项目介绍

OpenClaw是一款本地运行、可自托管的AI执行引擎,主打"从给建议到做事情"的能力跃迁——它并非被动响应的聊天机器人,而是能通过自然语言指令,自主规划并完成全流程任务的"数字员工"。与传统对话式AI工具不同,OpenClaw的核心定位是本地优先,所有用户数据默认存储于用户自有设备,彻底实现数据主权与隐私安全自主。

核心优势:跨平台支持、本地模型部署、安全隔离、场景适配、部署便捷

二、环境准备

1. 系统要求

  • 操作系统:Ubuntu 20.04+/Debian 11+(推荐)
  • 内存:最低2GB,推荐4GB以上
  • 硬盘:至少500MB可用空间
  • 网络:稳定联网(用于下载依赖,调用云端AI需联网)

2. 安装Docker(国内镜像加速版)

bash

1# 更新系统并安装必要工具 2sudo apt update && sudo apt upgrade -y 3sudo apt install -y ca-certificates curl gnupg lsb-release 4 5# 添加Docker官方GPG密钥 6curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo gpg --dearmor -o /usr/share/keyrings/docker-archive-keyring.gpg 7 8# 添加Docker仓库 9echo "deb [arch=$(dpkg --print-architecture) signed-by=/usr/share/keyrings/docker-archive-keyring.gpg] https://download.docker.com/linux/ubuntu $(lsb_release -cs) stable" | sudo tee /etc/apt/sources.list.d/docker.list > /dev/null 10 11# 安装Docker 12sudo apt update 13sudo apt install -y docker-ce docker-ce-cli containerd.io docker-compose-plugin 14 15# 配置国内镜像加速(轩辕镜像) 16sudo mkdir -p /etc/docker 17sudo tee /etc/docker/daemon.json <<-'EOF' 18{ 19 "registry-mirrors": [ 20 "https://docker.xuanyuan.run", 21 "https://docker.m.daocloud.io" 22 ] 23} 24EOF 25 26# 重启Docker服务 27sudo systemctl daemon-reload 28sudo systemctl restart docker 29 30# 验证安装 31docker --version 32docker compose version
重要提示:使用docker compose命令时,必须将-d参数放在up命令之后,即docker compose up -d,否则会报错。

三、部署OpenClaw(智谱AI版)

1. 创建部署目录

bash

1mkdir -p /opt/openclaw && cd /opt/openclaw

2. 创建docker-compose.yml文件

yaml

1version: '3.8' 2 3services: 4 openclaw: 5 # 使用轩辕镜像源加速拉取 6 image: docker.xuanyuan.run/alpine/openclaw:latest 7 restart: unless-stopped 8 ports: 9 - "18789:18789" 10 environment: 11 # 设置模型提供商为自定义 12 - MODEL_PROVIDER=custom 13 14 # 智谱AI API Key(从智谱开放平台获取) 15 - CUSTOM_API_KEY=your_zhipu_api_key 16 17 # 智谱AI的Base URL 18 - CUSTOM_BASE_URL=https://open.bigmodel.cn/api/paas/v4 19 20 # 使用的模型ID(如glm-4, glm-4-6b, glm-4-air) 21 - CUSTOM_MODEL_ID=glm-4 22 volumes: 23 - ./data:/app/data 24 - ./config:/app/config
替换说明:请将your_zhipu_api_key替换为你的智谱AI API Key。

3. 获取智谱AI API Key

  1. 访问智谱开放平台
  2. 登录后点击右上角用户头像 → "API密钥"
  3. 点击"新建API密钥",复制生成的Key(格式通常为xxxx.yyyy

4. 启动服务

bash

1# 启动OpenClaw服务(后台运行) 2docker compose up -d 3 4# 查看服务状态 5docker compose ps 6 7# 查看启动日志 8docker compose logs -f

四、验证与访问

  1. 获取Token(用于访问Web界面):
1docker compose exec openclaw openclaw token generate --admin
  1. 访问控制台
    在浏览器中打开 http://<你的服务器IP>:18789/?token=<生成的Token>
  2. 验证AI功能
    在控制台发送一条消息,如"你好",应能收到智谱AI的回复。

五、常见问题解决

1. 镜像拉取失败

  • 原因:网络问题导致无法访问Docker Hub
  • 解决:确保已正确配置/etc/docker/daemon.json中的国内镜像源

2. 智谱AI连接失败

  • 原因:API Key错误或Base URL不正确
  • 解决
    1. 确认API Key正确无误
    2. 检查CUSTOM_BASE_URL是否为https://open.bigmodel.cn/api/paas/v4
    3. 确认CUSTOM_MODEL_ID与智谱平台开通的模型一致

3. 端口占用

  • 原因:18789端口被其他服务占用
  • 解决:修改docker-compose.yml中的端口映射,如- "18790:18789"

六、进阶配置

1. 使用GLM-5模型

yaml

1environment: 2 - CUSTOM_MODEL_ID=glm-5

2. 配置Nginx反向代理(生产环境推荐)

nginx

1server { 2 listen 443 ssl; 3 server_name your-domain.com; 4 5 ssl_certificate /etc/nginx/ssl/cert.pem; 6 ssl_certificate_key /etc/nginx/ssl/key.pem; 7 8 location / { 9 proxy_pass http://localhost:18789; 10 proxy_set_header Host $host; 11 proxy_set_header X-Real-IP $remote_addr; 12 proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; 13 proxy_set_header X-Forwarded-Proto $scheme; 14 } 15}

七、总结

通过本文,你已成功使用Docker在本地部署了OpenClaw,并配置了智谱AI作为模型提供商。OpenClaw作为一款本地运行的AI执行引擎,能够让你在保证数据隐私的同时,享受强大的AI任务执行能力。

核心要点:使用国内镜像加速Docker安装,解决网络问题通过环境变量配置智谱AI,实现无缝对接通过Docker容器化部署,确保环境隔离与安全性

Read more

基于YOLOv8/YOLOv10/YOLOv11/YOLOv12与SpringBoot的苹果成熟度检测系统(DeepSeek智能分析+web交互界面+前后端分离+YOLO数据

基于YOLOv8/YOLOv10/YOLOv11/YOLOv12与SpringBoot的苹果成熟度检测系统(DeepSeek智能分析+web交互界面+前后端分离+YOLO数据

摘要 随着智慧农业和精准农业的快速发展,利用计算机视觉技术实现水果的自动化检测与分级已成为研究热点。传统的苹果成熟度人工判定方法效率低、主观性强且成本高昂。为此,本研究设计并实现了一个基于深度学习与Web技术的苹果成熟度智能检测系统。本系统的核心在于整合了先进的YOLO(You Only Look Once)系列目标检测模型(包括YOLOv8、v10、v11及v12),构建了一个多成熟度级别的苹果检测模型。系统对包含“20%成熟”、“50%成熟”、“75%成熟”、“100%成熟”及“腐烂”五个类别的专属数据集进行训练与优化,旨在实现高精度、高效率的自动化识别。 为实现技术的工程化落地与便捷交互,本系统采用前后端分离的SpringBoot + Vue.js架构,构建了功能完备的Web交互平台。系统不仅支持图片、视频及摄像头的实时流媒体检测,还创新性地集成了DeepSeek智能分析模型,对检测结果进行语义化解读与报告生成,增强了系统的可解释性与实用性。所有检测记录、用户行为等关键数据均持久化存储于MySQL数据库中,并通过丰富的数据可视化图表进行动态展示,辅助用户进行决策分析。此外,系

Google AI Studio生成的前端代码打包成安卓APK文件

前言    Google AI Studio 的 Build 模式(通常指 "Gemini Vibe Coding" 或可视化的应用构建功能)默认生成的通常是 Web 应用代码(主要是 React 或纯 HTML/JS),而不是原生的 Android (Java/Kotlin) 代码。这意味着你不能直接把它打包成 APK。你需要先进行一步“转换”,把这个 Web 应用“包裹”成一个安卓应用。 案例演示 下面以我生成的一个小的应用程序为例演示如何将它打包成APK文件并安装在手机上。 这是我使用Google的Gemini 3生成的一个滑卡软件(还有些BUG。。) 开源的github链接:YGJing7/flashflow: 闪流卡片 开源的gitee链接:AriYang/flashflow 基础环境准备 ※注意※

Android JNI 集成 WebRTC VAD 实战:AI 辅助的语音活动检测优化方案

快速体验 在开始今天关于 Android JNI 集成 WebRTC VAD 实战:AI 辅助的语音活动检测优化方案 的探讨之前,我想先分享一个最近让我觉得很有意思的全栈技术挑战。 我们常说 AI 是未来,但作为开发者,如何将大模型(LLM)真正落地为一个低延迟、可交互的实时系统,而不仅仅是调个 API? 这里有一个非常硬核的动手实验:基于火山引擎豆包大模型,从零搭建一个实时语音通话应用。它不是简单的问答,而是需要你亲手打通 ASR(语音识别)→ LLM(大脑思考)→ TTS(语音合成)的完整 WebSocket 链路。对于想要掌握 AI 原生应用架构的同学来说,这是个绝佳的练手项目。 从0到1构建生产级别应用,脱离Demo,点击打开 从0打造个人豆包实时通话AI动手实验 Android JNI 集成 WebRTC VAD 实战:

前端实战:基于Vue3与免费满血版DeepSeek实现无限滚动+懒加载+瀑布流模块及优化策略

前端实战:基于Vue3与免费满血版DeepSeek实现无限滚动+懒加载+瀑布流模块及优化策略

目录 前端实战:基于Vue3与免费满血版DeepSeek实现无限滚动+懒加载+瀑布流模块及优化策略 一、前言 二、如何使用腾讯云免费满血版deepseek 1、腾讯云大模型知识引擎体验中心 2、体验deepseek联网助手 3、人机交互获取AI支持 三、基于DeepSeek实现无限滚动+懒加载+瀑布流模块 1、无限滚动+懒加载+瀑布流模块的底层逻辑 2、人机交互策略与Deepseek的实现过程 ①虚拟列表管理 ②布局容器初始化 ③动态渲染与销毁机制 ④无线滚动实现 ⑤内存优化策略 四、最终代码呈现 1、组件代码 2、组件用法 五、结语         作者:watermelo37         ZEEKLOG万粉博主、华为云云享专家、阿里云专家博主、腾讯云、支付宝合作作者,全平台博客昵称watermelo37。         一个假装是giser的coder,做不只专注于业务逻辑的前端工程师,Java、Docker、