基于Docker安装OpenClaw 本地 AI 助手教程

基于Docker安装OpenClaw 本地 AI 助手教程

一、 环境要求

组件

最低要求

推荐配置

操作系统

Linux (Ubuntu 20.04+), macOS 12+, Windows 10+ (WSL2)

Ubuntu 22.04 LTS

Docker

Docker Engine 20.10+

Docker Compose v2.0+

内存

2 GB

4 GB+

存储

5 GB

10 GB+

二、 核心步骤:拉取国内镜像

由于镜像在国内网络环境下拉取困难,我们直接通过离线下载的方式。

1. 拉取镜像

镜像下载地址,下载完成后在终端执行以下命令,将镜像拉取到本地

我用夸克网盘给你分享了「openclaw」,点击链接或复制整段内容,打开「夸克网盘APP」即可获取。
/~48b93M1xLP~:/
链接:https://pan.quark.cn/s/0b9b526fa98d

docker load --input openclaw.tar

2. 查看镜像是否下载成功

docker images -a

三、 启动 OpenClaw Gateway 服务

镜像拉取成功后,使用以下命令启动服务。注意:镜像标签较长,建议使用 docker images查看镜像 ID 后使用 ID 启动,或使用以下完整命令。

使用 Docker Run 启动

docker run -d \ --name openclaw \ -p 18789:18789 \ --user root \ -e OPENCLAW_GATEWAY_TOKEN=testtoken \ telecom-eci-huadong1-crs-registry.crs-huadong1.ctyun.cn/base_image/openclaw:2026-01-30 \ openclaw gateway run

或者使用 Docker Compose (推荐)

创建 docker-compose.yml文件:

version: '3.8' services: openclaw: image: telecom-eci-huadong1-crs-registry.crs-huadong1.ctyun.cn/base_image/openclaw:2026-01-30 container_name: openclaw ports: - "18789:18789" environment: - OPENCLAW_GATEWAY_TOKEN=your_custom_token_here command: openclaw gateway run restart: unless-stopped

启动服务:

docker-compose up -d

四、 验证与访问

  1. 查看容器状态docker logs -f openclaw
  2. 访问 Web UI:浏览器打开 http://你的服务器IP:18789?token=testtoken
  3. 输入 Token:在登录界面输入 docker-compose.yml中设置的 OPENCLAW_GATEWAY_TOKEN值(如未设置,查看启动日志获取随机生成的 Token)。

五、 修改配置

首次登录后,需在 Web UI 或通过命令行配置 AI 模型 API Key(如 OpenAI、Claude 或国内通义千问、DeepSeek 等),OpenClaw 才能正常进行推理和对话。

这里直接贴出修改的json文件

{ "meta": { "lastTouchedVersion": "2026.1.29", "lastTouchedAt": "2026-03-01T16:53:34.972Z" }, "wizard": { "lastRunAt": "2026-03-01T16:53:34.961Z", "lastRunVersion": "2026.1.29", "lastRunCommand": "onboard", "lastRunMode": "local" }, "browser": { "enabled": true, "executablePath": "/usr/bin/chromium", "headless": true, "noSandbox": true }, "models": { "providers": { "deepseek": { "baseUrl": "https://api.siliconflow.cn/v1", "apiKey": "sk-xxxxxx", "api": "openai-completions", "models": [ { "id": "deepseek-ai/DeepSeek-R1-Distill-Qwen-7B", "name": "deepseek-ai/DeepSeek-R1-Distill-Qwen-7B", "reasoning": false, "input": [ "text" ], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 32768, "maxTokens": 32768 }, { "id": "Pro/MiniMaxAI/MiniMax-M2.5", "name": "Pro/MiniMaxAI/MiniMax-M2.5", "reasoning": false, "input": [ "text" ], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 200000, "maxTokens": 8192 }, { "id": "deepseek-ai/DeepSeek-V3.2", "name": "deepseek-ai/DeepSeek-V3.2", "reasoning": false, "input": [ "text" ], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 200000, "maxTokens": 8192 } ] }, "minimax": { "baseUrl": "https://api.minimaxi.com/v1", "apiKey": "sk-xxxxx", "api": "openai-completions", "models": [ { "id": "MiniMax-M2.5", "name": "MiniMax M2.5", "reasoning": false, "input": [ "text" ], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 200000, "maxTokens": 8192 }, { "id": "MiniMax-M2.5-highspeed", "name": "MiniMax M2.5 Highspeed", "reasoning": false, "input": [ "text" ], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 200000, "maxTokens": 8192 }, { "id": "MiniMax-M2.1", "name": "MiniMax M2.1", "reasoning": false, "input": [ "text" ], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 200000, "maxTokens": 8192 }, { "id": "MiniMax-M2.1-highspeed", "name": "MiniMax M2.1 Highspeed", "reasoning": false, "input": [ "text" ], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 200000, "maxTokens": 8192 }, { "id": "MiniMax-M2", "name": "MiniMax M2", "reasoning": false, "input": [ "text" ], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 200000, "maxTokens": 8192 } ] } } }, "agents": { "defaults": { "model": { "primary": "deepseek/deepseek-ai/DeepSeek-V3.2" }, "workspace": "/home/node/.openclaw/workspace", "compaction": { "mode": "default" }, "heartbeat": { "model": "minimax/MiniMax-M2.5" }, "maxConcurrent": 4, "subagents": { "maxConcurrent": 8 } } }, "messages": { "ackReactionScope": "group-mentions" }, "commands": { "native": "auto", "nativeSkills": "auto" }, "gateway": { "port": 28789, "mode": "local", "bind": "loopback", "controlUi": { "allowInsecureAuth": true }, "auth": { "mode": "token", "token": "xxxxx" }, "tailscale": { "mode": "off", "resetOnExit": false } }, "skills": { "install": { "nodeManager": "npm" } } } 

以上就是所有内容啦,关注下方微信公众号输入“openclaw”免费体验~token有限,先到先得~

Read more

本地文件深度交互新玩法:Obsidian Copilot的深度开发

本地文件深度交互新玩法:Obsidian Copilot的深度开发

前言 当 “本地知识库管理” 撞上 “AI 智能分析”,会擦出怎样的火花?试想一下:你的 Obsidian 里存着多年积累的笔记、文档,却只能手动翻阅检索;而现在,一个插件 + 蓝耘 API,就能让这些 “静态文字” 瞬间 “活” 起来 —— 自动总结核心内容、智能回答专业疑问,甚至挖掘隐藏关联!今天,就带大家拆解 Obsidian 联动蓝耘 API 的全新玩法,看看如何让本地文件从 “信息仓库” 变身 “智能助手” 。 蓝耘API KEY的创建 先进行API的创建 先点击蓝耘进行一个正常的注册流程 进入到主页之后,我们点击上方的MaaS平台 进入到平台后我们可以看到很多的大模型 不仅仅是文本生成、音频理解、视频理解还是视频生成,都有对应的大模型 每个模型都有很详细的介绍以及价格示例,用过api调用的都可以看到这个价格还是比较贴近平民的 并且可以进行在线体验的,这里是先进行思考的,

【AI】大语言模型 (LLM) 产品的开发流程参考

【AI】大语言模型 (LLM) 产品的开发流程参考

🔥小龙报:个人主页 🎬作者简介:C++研发,嵌入式,机器人等方向学习者 ❄️个人专栏:《AI》 ✨ 永远相信美好的事情即将发生 文章目录 * 前言 * 一、个人开发者的大语言模型 (LLM) 产品的开发流程参考 * 1.1 准备工作 * 1.2 构建知识库索引 * 1.3 定制大模型 * 1.4 用户交互界面开发 * 1.5 测试与部署上线 * 1.6 监控结果 * 二、组织/商用级别的大语言模型 (LLM) 产品开发流程参考 * 2.1 准备工作 * 2.2 定制大模型 * 2.3 模型部署与集成 * 2.4

以为AI开发就是调接口?一场25K的面试让我看到真相,原来真正的技术深度在这!

以为AI开发就是调接口?一场25K的面试让我看到真相,原来真正的技术深度在这!

以为AI开发就是调接口?一场25K的面试让我看到真相,原来真正的技术深度在这! 核心观点:AI应用开发绝非简单的API调用,而是融合算法理解、系统架构、工程实践、业务洞察的综合性技术领域。 随着人工智能技术的爆发式增长,越来越多的企业和开发者涌入AI应用开发赛道。然而,一个普遍存在的认知偏见依然困扰着这个领域——**很多人认为AI应用开发本质上就是调用大模型API,难度系数不高。**这种表象化的理解,恰恰忽视了AI应用开发的深层技术复杂度。 通过一次极具代表性的技术面试,我们可以清晰地看到AI应用开发的真实技术图谱。同时,我们也将深入探讨这个领域的技术演进、最佳实践以及未来发展趋势。 文章目录 * 以为AI开发就是调接口?一场25K的面试让我看到真相,原来真正的技术深度在这! * 技术背景重构 * 面试者画像可视化 * AI应用开发的技术现状与挑战 * 技术生态的演进路径 * 提示词工程的深层逻辑 * 提示词工程的系统性方法论 * 1. 场景分类体系 * 2. 提示词模板管理 *

Transformer vs Stable Diffusion vs LLM模型对比

一 三种模型对比 1 Transformer是一个基础架构,是许多现代AI模型的发送机 2LLM和StableDiffusion是两种不同的顶级车型,分别用于处理语言和图像 3开源是这些模型的发布和协作模式 二 下面我们详细拆解 2.1Transformer一切的基石 本质,一种神经网络架构2017 不是具体的模型,而是一种设计思想,核心创新是自注意力机制,让模型在处理序列数据时,能动态的关注所有部分的重要关系,并行高效的学习。 类比:就像汽车的内燃机或电动平台。是一种基础技术,可以被用来制造各种不同类型的车。 影响:彻底改变了自然语言处理领域,并逐渐扩展到视觉,音频等多模态领域,当今绝大多数先进的LLM都是基于Transformer架构构建的。 2.2LLMvsStableDiffusion不同赛道上的顶级选手 维度 LLM StableDiffusion 核心任务 理解和生成人类语言文本,例如,对话,协作,翻译,代码生成。 生成和编辑图像,根据文本描述prompt生成图片,或者对现有图片进行修改 技术基础 主要基于Transformer架构