OpenClaw 迁移指南:如何把 AI 助手搬到新电脑

OpenClaw 迁移指南:如何把 AI 助手搬到新电脑

本文记录如何将 OpenClaw AI 助手(包括记忆、配置、本地模型)完整迁移到新电脑。

目录


概述

OpenClaw 是一个开源的 AI 助手框架,支持多渠道接入(钉钉、Telegram、Discord 等)。它的数据主要分为三部分:

内容说明位置
程序本体OpenClaw 运行时npm 全局包
配置文件API Key、渠道配置等~/.openclaw/config.yaml
工作空间记忆、脚本、文档~/.openclaw/workspace/

其中,工作空间可以用 Git 管理,实现跨设备同步和版本控制。


架构说明

~/.openclaw/ ├── config.yaml # 配置文件(API Key、渠道等) ├── workspace/ # 工作空间(Git 仓库) │ ├── AGENTS.md # AI 行为规范 │ ├── SOUL.md # AI 人格定义 │ ├── USER.md # 用户信息 │ ├── IDENTITY.md # AI 身份 │ ├── MEMORY.md # 长期记忆 │ ├── TOOLS.md # 工具配置笔记 │ ├── HEARTBEAT.md # 心跳任务 │ ├── memory/ # 每日记忆 │ │ ├── 2026-02-03.md │ │ └── 2026-02-04.md │ ├── scripts/ # 自定义脚本 │ │ ├── dingtalk-notify.sh │ │ ├── dingtalk-send.sh │ │ └── llama-server.sh │ └── docs/ # 文档 └── logs/ # 日志 

迁移步骤

1. 安装 OpenClaw

前置要求: Node.js 18+

# Ubuntu/Debian - 安装 Node.jscurl -fsSL https://deb.nodesource.com/setup_22.x |sudo -E bash - sudoaptinstall -y nodejs # 或使用 nvm(推荐)curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.39.0/install.sh |bashsource ~/.bashrc nvm install22 nvm use 22# 安装 OpenClawnpminstall -g openclaw # 验证安装 openclaw --version 

2. 克隆记忆仓库

# 创建 OpenClaw 目录mkdir -p ~/.openclaw cd ~/.openclaw # 克隆工作空间(替换为你的仓库地址)git clone [email protected]:hongmaple/maple-bot-chat.git workspace # 如果是首次使用,需要配置 SSH 密钥 ssh-keygen -t ed25519 -C "[email protected]"cat ~/.ssh/id_ed25519.pub # 将公钥添加到 Gitee 账号

3. 恢复配置文件

配置文件包含敏感信息(API Key),建议手动复制或使用加密备份

方法 A:手动复制

从旧电脑复制 ~/.openclaw/config.yaml 到新电脑相同位置。

方法 B:从模板创建

# 初始化配置 openclaw init # 编辑配置文件nano ~/.openclaw/config.yaml 

配置文件示例:

# ~/.openclaw/config.yamlversion:"1"# AI 模型配置models:default: anthropic/claude-sonnet-4-20250514providers:anthropic:apiKey:"sk-ant-xxxxx"# 你的 API Key# 渠道配置(可选)channels:dingtalk:enabled:trueappKey:"your-app-key"appSecret:"your-app-secret"replyMode:"markdown"# 心跳配置heartbeat:enabled:trueintervalMinutes:30

4. 启动服务

# 启动 OpenClaw Gateway openclaw gateway start # 查看状态 openclaw gateway status # 查看日志 openclaw gateway logs 

可选:本地模型迁移

如果你使用 llama.cpp 运行本地模型,也需要迁移。

安装 llama.cpp

# 安装依赖sudoaptinstall -y build-essential cmake # 克隆并编译cd ~ git clone https://github.com/ggml-org/llama.cpp.git cd llama.cpp mkdir -p build &&cd build cmake .. cmake --build . --config Release -j$(nproc)

下载模型

cd ~/llama.cpp/models # 使用国内镜像下载(推荐)wget https://hf-mirror.com/Qwen/Qwen2.5-3B-Instruct-GGUF/resolve/main/qwen2.5-3b-instruct-q4_k_m.gguf # 或者从旧电脑复制模型文件(约 2GB)# scp old-pc:~/llama.cpp/models/*.gguf .

使用启动脚本

工作空间中包含了 llama-server 启动脚本:

# 创建软链接ln -sf ~/.openclaw/workspace/scripts/llama-server.sh ~/llama-server # 启动服务 ~/llama-server start # 查看状态 ~/llama-server status # 测试 API ~/llama-server test

API 地址:http://127.0.0.1:11434/v1/chat/completions


可选:钉钉机器人配置

企业内部应用(双向通信)

  1. 登录 钉钉开放平台
  2. 创建企业内部应用 → 机器人
  3. 获取 AppKey 和 AppSecret
  4. 配置消息接收地址:https://your-domain/webhook/dingtalk
  5. config.yaml 中配置

Webhook 机器人(仅推送)

  1. 在钉钉群 → 群设置 → 智能群助手 → 添加机器人
  2. 选择"自定义 Webhook"
  3. 记录 Webhook URL 和加签密钥
  4. 使用 scripts/dingtalk-notify.sh 发送消息
# 使用示例 ~/.openclaw/workspace/scripts/dingtalk-notify.sh "这是一条测试消息"

迁移清单

使用此清单确保迁移完整:

  • 新电脑安装 Node.js 18+
  • 安装 OpenClaw:npm install -g openclaw
  • 克隆工作空间:git clone ... ~/.openclaw/workspace
  • 复制/创建配置文件:~/.openclaw/config.yaml
  • 配置 SSH 密钥(用于 Git 同步)
  • 启动服务:openclaw gateway start
  • (可选)安装 llama.cpp 和模型
  • (可选)配置钉钉机器人
  • 测试 AI 对话是否正常

常见问题

Q: 迁移后 AI 还记得之前的事吗?

A: 是的!记忆存储在 workspace/memory/MEMORY.md 中,通过 Git 同步后会完整保留。

Q: API Key 需要重新申请吗?

A: 不需要,直接复制旧的 config.yaml 即可。但建议定期轮换 Key 以保证安全。

Q: 本地模型文件很大,如何快速迁移?

A: 几个选项:

  1. 局域网直接复制(最快)
  2. 移动硬盘
  3. 重新下载(使用 hf-mirror.com 国内镜像)

Q: 如何在多台电脑同时使用?

A: 可以,但注意:

  1. 只能有一台电脑运行 OpenClaw Gateway(避免消息重复)
  2. 工作空间通过 Git 同步,注意解决冲突
  3. 或者使用云服务器部署,多设备访问

Q: Windows 可以用吗?

A: 推荐使用 WSL2(Windows Subsystem for Linux),体验与原生 Linux 一致。


相关链接

Read more

零代码上手!用 Rokid 灵珠平台,5 步搭建专属旅游 AR 智能体

零代码上手!用 Rokid 灵珠平台,5 步搭建专属旅游 AR 智能体

零代码上手!用 Rokid 灵珠平台,5 步搭建专属旅游 AR 智能体 本文应用基于Rokid灵珠智能体/CXR SDK开发,开发指南https://forum.rokid.com/index 灵珠平台简介 Rokid 自研 AI 开发平台,基于多模态大模型与轻量化架构,打造零门槛、全栈化 AI 开发体系。平台提供可视化编排、预置能力组件,支持原型到云端、端侧一站式敏捷部署,并深度适配 Rokid Glasses 智能眼镜,通过专属硬件接口与低功耗优化,实现 AI 应用高效端侧落地,助力开发者快速打造视觉识别、语音交互等穿戴式 AI 应用,拓展 AI + 物理世界的交互边界可视化编排工具,拖拽式快速搭建应用预置丰富能力组件库,涵盖对话引擎、视觉识别等核心模块支持从原型设计到云端、端侧的一站式敏捷部署提供设备专属适配接口,实现硬件深度协同搭载低功耗运行优化方案,

OpenClaw 多机器人多 Agent 模式:打造你的 AI 助手团队

OpenClaw 多机器人多 Agent 模式:打造你的 AI 助手团队

OpenClaw 多机器人多 Agent 模式:打造你的 AI 助手团队 完整教程:https://awesome.tryopenclaw.asia/docs/04-practical-cases/15-solo-entrepreneur-cases.html 16.1 为什么需要多 Agent? 作为超级个体创业者,你可能需要不同类型的 AI 助手来处理不同的工作: * 主助理:使用最强大的模型(Claude Opus)处理复杂任务 * 内容创作助手:专注于文章写作、文案创作 * 技术开发助手:处理代码开发、技术问题 * AI 资讯助手:快速获取和整理 AI 行业动态 传统的单 Agent 模式需要频繁切换模型和上下文,效率低下。多 Agent 模式让你可以同时拥有多个专业助手,各司其职。

从零开始使用ISSACLAB训练自己的机器人行走

从零开始使用ISSACLAB训练自己的机器人行走

ISAACLAB入门教程 作者:陈维耀 1. 环境配置 1.1 推荐配置 * 操作系统: Ubuntu 22.04 LTS * 显卡: NVIDIA RTX 4080或以上 1.2 ubuntu 22.04 LTS安装 参考ZEEKLOG的Ubuntu 16.04 LTS安装教程,将其中的ubuntu 16.04镜像文件替换为ubuntu 22.04镜像文件,其他步骤保持不变,建议/home与/usr的硬盘容量均不少于200G。 1.3 安装NVIDIA驱动 根据自身显卡型号与操作系统,选择对应的显卡驱动,建议选择550.xxx.xxx版本的显卡驱动,按照教程进行安装即可,安装完成后在终端输入nvidia-smi,若出现以下信息则表示驱动安装成功: Thu Jun 5

Web3基建狂想曲:公链、侧链与联盟链的交响式开发全攻略

Web3基建狂想曲:公链、侧链与联盟链的交响式开发全攻略

引言:当区块链进入"乐高时代" 在以太坊Gas费突破200Gwei的深夜,某DeFi协议因网络拥堵损失数百万美元;与此同时,某企业联盟链因节点权限争议陷入治理僵局。这些极端场景揭示了一个残酷真相:区块链世界正面临"不可能三角"的终极拷问——如何在去中心化、安全性与可扩展性间找到完美平衡点? 本文将穿透技术迷雾,以"公链为核、侧链为翼、联盟链为网"的立体化视角,拆解Web3基础设施开发的底层逻辑。从共识算法的量子优化到跨链协议的分子级设计,从治理模型的博弈论推演到生态孵化的病毒式传播,这场融合了密码学、分布式系统与行为经济学的技术革命,正在重新定义"信任机器"的构建范式。 一、公链开发:打造数字世界的"新大陆" 1.1 共识算法的进化论 现代公链已突破PoW/PoS的二元对立,演化出三大新范式: * 动态权益证明(DPoS+):某新公链通过AI动态调整见证人节点数量,