Docker安装OpenClaw:使用智谱AI的完整指南(国内镜像加速版)

一、项目介绍

OpenClaw是一款本地运行、可自托管的AI执行引擎,主打"从给建议到做事情"的能力跃迁——它并非被动响应的聊天机器人,而是能通过自然语言指令,自主规划并完成全流程任务的"数字员工"。与传统对话式AI工具不同,OpenClaw的核心定位是本地优先,所有用户数据默认存储于用户自有设备,彻底实现数据主权与隐私安全自主。

核心优势:跨平台支持、本地模型部署、安全隔离、场景适配、部署便捷

二、环境准备

1. 系统要求

  • 操作系统:Ubuntu 20.04+/Debian 11+(推荐)
  • 内存:最低2GB,推荐4GB以上
  • 硬盘:至少500MB可用空间
  • 网络:稳定联网(用于下载依赖,调用云端AI需联网)

2. 安装Docker(国内镜像加速版)

bash

1# 更新系统并安装必要工具 2sudo apt update && sudo apt upgrade -y 3sudo apt install -y ca-certificates curl gnupg lsb-release 4 5# 添加Docker官方GPG密钥 6curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo gpg --dearmor -o /usr/share/keyrings/docker-archive-keyring.gpg 7 8# 添加Docker仓库 9echo "deb [arch=$(dpkg --print-architecture) signed-by=/usr/share/keyrings/docker-archive-keyring.gpg] https://download.docker.com/linux/ubuntu $(lsb_release -cs) stable" | sudo tee /etc/apt/sources.list.d/docker.list > /dev/null 10 11# 安装Docker 12sudo apt update 13sudo apt install -y docker-ce docker-ce-cli containerd.io docker-compose-plugin 14 15# 配置国内镜像加速(轩辕镜像) 16sudo mkdir -p /etc/docker 17sudo tee /etc/docker/daemon.json <<-'EOF' 18{ 19 "registry-mirrors": [ 20 "https://docker.xuanyuan.run", 21 "https://docker.m.daocloud.io" 22 ] 23} 24EOF 25 26# 重启Docker服务 27sudo systemctl daemon-reload 28sudo systemctl restart docker 29 30# 验证安装 31docker --version 32docker compose version
重要提示:使用docker compose命令时,必须将-d参数放在up命令之后,即docker compose up -d,否则会报错。

三、部署OpenClaw(智谱AI版)

1. 创建部署目录

bash

1mkdir -p /opt/openclaw && cd /opt/openclaw

2. 创建docker-compose.yml文件

yaml

1version: '3.8' 2 3services: 4 openclaw: 5 # 使用轩辕镜像源加速拉取 6 image: docker.xuanyuan.run/alpine/openclaw:latest 7 restart: unless-stopped 8 ports: 9 - "18789:18789" 10 environment: 11 # 设置模型提供商为自定义 12 - MODEL_PROVIDER=custom 13 14 # 智谱AI API Key(从智谱开放平台获取) 15 - CUSTOM_API_KEY=your_zhipu_api_key 16 17 # 智谱AI的Base URL 18 - CUSTOM_BASE_URL=https://open.bigmodel.cn/api/paas/v4 19 20 # 使用的模型ID(如glm-4, glm-4-6b, glm-4-air) 21 - CUSTOM_MODEL_ID=glm-4 22 volumes: 23 - ./data:/app/data 24 - ./config:/app/config
替换说明:请将your_zhipu_api_key替换为你的智谱AI API Key。

3. 获取智谱AI API Key

  1. 访问智谱开放平台
  2. 登录后点击右上角用户头像 → "API密钥"
  3. 点击"新建API密钥",复制生成的Key(格式通常为xxxx.yyyy

4. 启动服务

bash

1# 启动OpenClaw服务(后台运行) 2docker compose up -d 3 4# 查看服务状态 5docker compose ps 6 7# 查看启动日志 8docker compose logs -f

四、验证与访问

  1. 获取Token(用于访问Web界面):
1docker compose exec openclaw openclaw token generate --admin
  1. 访问控制台
    在浏览器中打开 http://<你的服务器IP>:18789/?token=<生成的Token>
  2. 验证AI功能
    在控制台发送一条消息,如"你好",应能收到智谱AI的回复。

五、常见问题解决

1. 镜像拉取失败

  • 原因:网络问题导致无法访问Docker Hub
  • 解决:确保已正确配置/etc/docker/daemon.json中的国内镜像源

2. 智谱AI连接失败

  • 原因:API Key错误或Base URL不正确
  • 解决
    1. 确认API Key正确无误
    2. 检查CUSTOM_BASE_URL是否为https://open.bigmodel.cn/api/paas/v4
    3. 确认CUSTOM_MODEL_ID与智谱平台开通的模型一致

3. 端口占用

  • 原因:18789端口被其他服务占用
  • 解决:修改docker-compose.yml中的端口映射,如- "18790:18789"

六、进阶配置

1. 使用GLM-5模型

yaml

1environment: 2 - CUSTOM_MODEL_ID=glm-5

2. 配置Nginx反向代理(生产环境推荐)

nginx

1server { 2 listen 443 ssl; 3 server_name your-domain.com; 4 5 ssl_certificate /etc/nginx/ssl/cert.pem; 6 ssl_certificate_key /etc/nginx/ssl/key.pem; 7 8 location / { 9 proxy_pass http://localhost:18789; 10 proxy_set_header Host $host; 11 proxy_set_header X-Real-IP $remote_addr; 12 proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; 13 proxy_set_header X-Forwarded-Proto $scheme; 14 } 15}

七、总结

通过本文,你已成功使用Docker在本地部署了OpenClaw,并配置了智谱AI作为模型提供商。OpenClaw作为一款本地运行的AI执行引擎,能够让你在保证数据隐私的同时,享受强大的AI任务执行能力。

核心要点:使用国内镜像加速Docker安装,解决网络问题通过环境变量配置智谱AI,实现无缝对接通过Docker容器化部署,确保环境隔离与安全性

Read more

亲测Meta-Llama-3-8B-Instruct:8K上下文对话体验分享

亲测Meta-Llama-3-8B-Instruct:8K上下文对话体验分享 你有没有试过和一个模型聊着聊着,它突然忘了前面说了什么?或者刚聊到关键处,它就卡在“上一句我提到了什么”上?这次我用一张RTX 3060显卡,完整跑通了Meta-Llama-3-8B-Instruct——不是跑个demo,是真正在open-webui里连续对话40轮、处理2700+ token的长文档摘要、边写Python边解释逻辑、还顺手把一段中文技术文档翻译成地道英文。它没断片,没乱序,也没把“用户说的第三点”记成“第二点”。 这不是参数堆出来的幻觉,而是80亿参数在vLLM加速下给出的稳定输出。更关键的是:它真的能在单卡消费级显卡上跑起来,不靠云服务,不靠API调用,所有推理都在本地完成。 下面这篇分享,没有PPT式的技术罗列,只有我真实用下来的观察、踩过的坑、验证过的边界,以及那些“原来还能这样用”的小发现。 1. 为什么选它?一张3060就能跑的“轻量全能选手” 很多人看到“Llama 3”第一反应是:又一个大模型?但Llama-3-8B-Instruct的定位很特别——它不是冲着GPT

【AI绘画】Midjourney进阶:色相详解

【AI绘画】Midjourney进阶:色相详解

博客主页: [小ᶻ☡꙳ᵃⁱᵍᶜ꙳]本文专栏: AI绘画 | Midjourney 文章目录 * 💯前言 * 💯Midjourney中的色彩控制 * 为什么要控制色彩? * 为什么要在Midjourney中控制色彩? * 💯色相 * 红 * 橙 * 黄 * 绿 * 蓝 * 紫 * 黑与白 * 💯小结 💯前言 在设计领域中,色相作为色彩的重要维度,直接决定了作品的视觉基调与情感表达。通过对色相的深入理解与灵活运用,设计师可以在作品中精准传递信息,激发观众的情感共鸣。Midjourney 作为一款强大的AI绘画工具,为设计师提供了高效探索色相表现的创作平台,使复杂的色彩控制变得直观且富有创意。 本篇文章将以色相为核心,从色彩心理学与实际应用出发,结合 Midjourney 的提示词设置,详细解析不同色相在设计中的作用与特点。无论是自然主题的绿、蓝,还是富有情感张力的红、紫,每一种色相都在设计中扮演着不可替代的角色。 Midjourney官方使用手册 💯Midjourney中的色彩控制 在 Mi

Llama-3.2-3B步骤详解:Ollama部署后启用GPU加速(CUDA/cuDNN)全流程

Llama-3.2-3B步骤详解:Ollama部署后启用GPU加速(CUDA/cuDNN)全流程 1. 为什么需要GPU加速?——从“能跑”到“跑得快”的关键跃迁 你可能已经用Ollama成功拉起了Llama-3.2-3B,输入几句话就能看到回复,一切看似顺利。但当你连续提问、生成稍长文本,或者尝试多轮对话时,会明显感觉到响应变慢——几秒甚至十几秒的等待,让原本流畅的交互体验打了折扣。 这不是模型能力的问题,而是默认情况下Ollama在CPU上运行。Llama-3.2-3B虽是3B参数量的轻量级模型,但其Transformer结构天然适合并行计算。一块中端消费级显卡(比如RTX 3060或更高),在GPU模式下推理速度可比CPU快3~5倍,显存占用更合理,还能释放出CPU资源去做其他事。 更重要的是,Ollama官方明确支持CUDA加速,且无需手动编译模型或修改源码。整个过程不涉及复杂配置文件编辑,也不要求你成为CUDA专家——只要你的机器有NVIDIA显卡、驱动正常、CUDA环境基础就绪,就能完成切换。本文将带你从零开始,一步步验证环境、启用加速、实测对比,并解决你最可能卡

在 NVIDIA DGX Spark部署 Stable Diffusion 3.5 并使用ComfyUI

在 NVIDIA DGX Spark部署 Stable Diffusion 3.5 并使用ComfyUI

📖 前言 随着 NVIDIA Blackwell 架构的问世,DGX Spark (Personal AI Supercomputer) 将桌面级 AI 算力推向了新的巅峰。这台怪兽级设备搭载了 GB200/GB10 级别的 GPU 和 NVIDIA Grace CPU (ARM64),并运行在最新的 CUDA 13 环境下。 然而,“最强硬件"往往伴随着"最难环境”。由于 Grace CPU 采用 ARM (aarch64) 架构,且 CUDA 13 过于前沿,传统的 PyTorch 安装方法极易失败。 本文将手把手教你如何在这台超级计算机上部署 Stable Diffusion