OpenClaw 迁移指南:如何把 AI 助手搬到新电脑

OpenClaw 迁移指南:如何把 AI 助手搬到新电脑

本文记录如何将 OpenClaw AI 助手(包括记忆、配置、本地模型)完整迁移到新电脑。

目录


概述

OpenClaw 是一个开源的 AI 助手框架,支持多渠道接入(钉钉、Telegram、Discord 等)。它的数据主要分为三部分:

内容说明位置
程序本体OpenClaw 运行时npm 全局包
配置文件API Key、渠道配置等~/.openclaw/config.yaml
工作空间记忆、脚本、文档~/.openclaw/workspace/

其中,工作空间可以用 Git 管理,实现跨设备同步和版本控制。


架构说明

~/.openclaw/ ├── config.yaml # 配置文件(API Key、渠道等) ├── workspace/ # 工作空间(Git 仓库) │ ├── AGENTS.md # AI 行为规范 │ ├── SOUL.md # AI 人格定义 │ ├── USER.md # 用户信息 │ ├── IDENTITY.md # AI 身份 │ ├── MEMORY.md # 长期记忆 │ ├── TOOLS.md # 工具配置笔记 │ ├── HEARTBEAT.md # 心跳任务 │ ├── memory/ # 每日记忆 │ │ ├── 2026-02-03.md │ │ └── 2026-02-04.md │ ├── scripts/ # 自定义脚本 │ │ ├── dingtalk-notify.sh │ │ ├── dingtalk-send.sh │ │ └── llama-server.sh │ └── docs/ # 文档 └── logs/ # 日志 

迁移步骤

1. 安装 OpenClaw

前置要求: Node.js 18+

# Ubuntu/Debian - 安装 Node.jscurl -fsSL https://deb.nodesource.com/setup_22.x |sudo -E bash - sudoaptinstall -y nodejs # 或使用 nvm(推荐)curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.39.0/install.sh |bashsource ~/.bashrc nvm install22 nvm use 22# 安装 OpenClawnpminstall -g openclaw # 验证安装 openclaw --version 

2. 克隆记忆仓库

# 创建 OpenClaw 目录mkdir -p ~/.openclaw cd ~/.openclaw # 克隆工作空间(替换为你的仓库地址)git clone [email protected]:hongmaple/maple-bot-chat.git workspace # 如果是首次使用,需要配置 SSH 密钥 ssh-keygen -t ed25519 -C "[email protected]"cat ~/.ssh/id_ed25519.pub # 将公钥添加到 Gitee 账号

3. 恢复配置文件

配置文件包含敏感信息(API Key),建议手动复制或使用加密备份

方法 A:手动复制

从旧电脑复制 ~/.openclaw/config.yaml 到新电脑相同位置。

方法 B:从模板创建

# 初始化配置 openclaw init # 编辑配置文件nano ~/.openclaw/config.yaml 

配置文件示例:

# ~/.openclaw/config.yamlversion:"1"# AI 模型配置models:default: anthropic/claude-sonnet-4-20250514providers:anthropic:apiKey:"sk-ant-xxxxx"# 你的 API Key# 渠道配置(可选)channels:dingtalk:enabled:trueappKey:"your-app-key"appSecret:"your-app-secret"replyMode:"markdown"# 心跳配置heartbeat:enabled:trueintervalMinutes:30

4. 启动服务

# 启动 OpenClaw Gateway openclaw gateway start # 查看状态 openclaw gateway status # 查看日志 openclaw gateway logs 

可选:本地模型迁移

如果你使用 llama.cpp 运行本地模型,也需要迁移。

安装 llama.cpp

# 安装依赖sudoaptinstall -y build-essential cmake # 克隆并编译cd ~ git clone https://github.com/ggml-org/llama.cpp.git cd llama.cpp mkdir -p build &&cd build cmake .. cmake --build . --config Release -j$(nproc)

下载模型

cd ~/llama.cpp/models # 使用国内镜像下载(推荐)wget https://hf-mirror.com/Qwen/Qwen2.5-3B-Instruct-GGUF/resolve/main/qwen2.5-3b-instruct-q4_k_m.gguf # 或者从旧电脑复制模型文件(约 2GB)# scp old-pc:~/llama.cpp/models/*.gguf .

使用启动脚本

工作空间中包含了 llama-server 启动脚本:

# 创建软链接ln -sf ~/.openclaw/workspace/scripts/llama-server.sh ~/llama-server # 启动服务 ~/llama-server start # 查看状态 ~/llama-server status # 测试 API ~/llama-server test

API 地址:http://127.0.0.1:11434/v1/chat/completions


可选:钉钉机器人配置

企业内部应用(双向通信)

  1. 登录 钉钉开放平台
  2. 创建企业内部应用 → 机器人
  3. 获取 AppKey 和 AppSecret
  4. 配置消息接收地址:https://your-domain/webhook/dingtalk
  5. config.yaml 中配置

Webhook 机器人(仅推送)

  1. 在钉钉群 → 群设置 → 智能群助手 → 添加机器人
  2. 选择"自定义 Webhook"
  3. 记录 Webhook URL 和加签密钥
  4. 使用 scripts/dingtalk-notify.sh 发送消息
# 使用示例 ~/.openclaw/workspace/scripts/dingtalk-notify.sh "这是一条测试消息"

迁移清单

使用此清单确保迁移完整:

  • 新电脑安装 Node.js 18+
  • 安装 OpenClaw:npm install -g openclaw
  • 克隆工作空间:git clone ... ~/.openclaw/workspace
  • 复制/创建配置文件:~/.openclaw/config.yaml
  • 配置 SSH 密钥(用于 Git 同步)
  • 启动服务:openclaw gateway start
  • (可选)安装 llama.cpp 和模型
  • (可选)配置钉钉机器人
  • 测试 AI 对话是否正常

常见问题

Q: 迁移后 AI 还记得之前的事吗?

A: 是的!记忆存储在 workspace/memory/MEMORY.md 中,通过 Git 同步后会完整保留。

Q: API Key 需要重新申请吗?

A: 不需要,直接复制旧的 config.yaml 即可。但建议定期轮换 Key 以保证安全。

Q: 本地模型文件很大,如何快速迁移?

A: 几个选项:

  1. 局域网直接复制(最快)
  2. 移动硬盘
  3. 重新下载(使用 hf-mirror.com 国内镜像)

Q: 如何在多台电脑同时使用?

A: 可以,但注意:

  1. 只能有一台电脑运行 OpenClaw Gateway(避免消息重复)
  2. 工作空间通过 Git 同步,注意解决冲突
  3. 或者使用云服务器部署,多设备访问

Q: Windows 可以用吗?

A: 推荐使用 WSL2(Windows Subsystem for Linux),体验与原生 Linux 一致。


相关链接

Read more

【AI与大模型实战】【避坑指南】使用Ollama管理本地大模型,这10个问题你一定遇到过

【AI与大模型实战】【避坑指南】使用Ollama管理本地大模型,这10个问题你一定遇到过

【避坑指南】使用Ollama管理本地大模型,这10个问题你一定遇到过 2026年初,Ollama已成为本地部署大模型的首选工具,但新手在安装和使用过程中总会遇到各种“坑”。本文汇总了10个最常见的问题及解决方案,帮你快速排雷,让本地AI助手运行如飞! 问题1:安装后服务无法启动,提示“端口被占用” 问题现象:执行ollama serve时出现bind: address already in use错误,或者安装后命令行输入ollama无响应。 根本原因:Ollama默认使用11434端口,该端口可能被其他进程占用(如Docker、Hyper-V、残留的Ollama进程等)。 解决方案: 方法一:检查并释放端口 # Windows系统netstat-ano| findstr :11434 # 找到占用端口的PID,然后在任务管理器中结束对应进程# Linux/macOS系统lsof-i :11434 sudokill-9<PID> 方法二:修改Ollama端口 # 临时修改(重启后失效)exportOLLAMA_HOST="

在OpenClaw中构建专业AI角色

在OpenClaw中构建专业AI角色

这条信息在晚上 11:47 通过 WhatsApp 传来:“天气警报:明天早上看起来很糟糕——-8°C,伴有冰冻降雨,直到上午 10 点。您早上 8:30 的户外访问可能会不舒服。要我建议重新安排到下午吗?” 我不记得配置过那种程度的情境感知主动性。然后我查看了 IDENTITY.md。 多重角色设定(IDENTITY.md)Moltbot 中的文件作为您的 AI 智能体 | 由 Gemini 3 Pro 生成的图像 © 透明度:本文的 AI 辅助结构化研究。配置模式、角色设计和分析均来自我自己的实践。 在第一篇文章中,我探索了 SOUL.md——定义您的 AI 选择成为谁的文件。核心价值观。指导在模糊情况下做出决策的原则。

Flutter 三方库 algolia_client_recommend 的鸿蒙化适配指南 - 打造 AI 驱动的个性化推荐引擎、助力鸿蒙端电商与内容应用转化率倍增

Flutter 三方库 algolia_client_recommend 的鸿蒙化适配指南 - 打造 AI 驱动的个性化推荐引擎、助力鸿蒙端电商与内容应用转化率倍增

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 三方库 algolia_client_recommend 的鸿蒙化适配指南 - 打造 AI 驱动的个性化推荐引擎、助力鸿蒙端电商与内容应用转化率倍增 前言 在 OpenHarmony 鸿蒙应用全场景连接的商业版图中,“信息找人”已成为提升流量价值的核心逻辑。无论是电商应用的“经常一起购买”,还是内容平台的“相关推荐”,高质量的个性化算法能显著降低用户的决策成本。algolia_client_recommend 作为一个连接 Algolia 顶尖 AI 推荐服务的专业客户端,为开发者提供了一套开箱即用的推荐逻辑封装。本文将详述如何在鸿蒙端利用此库构建“读懂用户”的智能化交互。 一、原原理分析 / 概念介绍 1.1 基础原理 algolia_client_recommend 的核心逻辑是 基于意图建模的异步推荐查询与联合过滤机制

大模型Agent开发:让AI学会使用工具与API调用

大模型Agent开发:让AI学会使用工具与API调用

👋 大家好,欢迎来到我的技术博客! 📚 在这里,我会分享学习笔记、实战经验与技术思考,力求用简单的方式讲清楚复杂的问题。 🎯 本文将围绕人工智能这个话题展开,希望能为你带来一些启发或实用的参考。 🌱 无论你是刚入门的新手,还是正在进阶的开发者,希望你都能有所收获! 文章目录 * 大模型Agent开发:让AI学会使用工具与API调用 🌍🤖 * 🧩 Agent 的核心架构与执行闭环 * 📐 工具与 API 的标准化设计 🧱 * 1. 遵循 JSON Schema 契约 * 2. 统一工具注册表与类型系统 * 💻 从零构建 Agent 执行引擎 * 1. 核心循环与上下文管理 * 2. 真实 API 调用封装 * 🔄 复杂工作流与状态编排 * 1. 动态规划 vs 预设工作流 * 2. 多步状态传递示例 * 🛡️ 工程化实践:稳定性、安全与可观测性 * 1. 限流、超时与熔断 * 2. 安全沙箱与权限隔离