打造你的专属AI助理:OpenClaw 超详细搭建指南(2026版)

打造你的专属AI助理:OpenClaw 超详细搭建指南(2026版)

你是否想过拥有一个真正属于自己的 AI 助理?它不仅能聊天,还能帮你管理文件、处理邮件、甚至自动撰写博客文章,而且所有数据都掌握在你自己手中,无需担心隐私泄露。

这就是 OpenClaw 的魅力所在。作为 Clawdbot 或 Moltbot 的继任者,OpenClaw 是一个开源的个人 AI 代理框架。它就像一个数字中枢,你可以通过飞书、微信(企业微信)、WhatsApp 等日常通讯工具与它交互,让它调用各种“技能”帮你完成实际任务。

本文将提供一份保姆级的搭建教程,涵盖从本地 Windows/Mac 到云服务器的全流程,并附上高频问题避坑指南,带你轻松踏入 AI 工程化的大门。

一、 安装前的准备

在开始之前,我们需要确保基础环境就绪。

  • 核心依赖Node.js 版本必须 ≥ 22。这是 OpenClaw 的运行基石。
  • 操作系统:macOS、Linux 或 Windows(推荐使用 WSL2 或直接使用 PowerShell)。
  • 网络环境:能够顺畅访问 GitHub 和各大模型 API 端点。
  • API Key:你需要一个大语言模型的 API 密钥,例如 OpenAI、Anthropic Claude、Google Gemini,或者国内的阿里云百炼、智谱等。

⚠️ 安全提示:由于这类工具拥有较高权限操作电脑,如果你是新手或者设备中存有重要资产,强烈建议先用一台干净的备用机或直接租用一个云服务器(VPS)进行尝试。

二、 本地快速部署(适合个人体验与开发)

对于大多数用户来说,官方提供的一键安装脚本是最快的方式。

Windows 系统部署

以管理员身份打开 PowerShell,逐行执行以下命令:

powershell

# 1. 如果首次运行脚本,先设置执行策略 Set-ExecutionPolicy -ExecutionPolicy RemoteSigned -Scope CurrentUser # 2. 一键安装 OpenClaw iwr -useb https://openclaw.ai/install.ps1 | iex

macOS / Linux 系统部署

打开终端,执行安装脚本:

bash

curl -fsSL https://openclaw.ai/install.sh | sh

安装脚本执行完毕后,通常会自动进入初始化向导(Onboarding)。如果意外退出,随时可以输入以下命令重新配置:

bash

openclaw onboard --install-daemon

三、 服务器部署(适合7x24小时在线)

如果你希望 AI 助理永不离线,或者在团队内共享,推荐部署在云服务器(VPS)上。

方式 A:阿里云一键部署(新手推荐)

阿里云提供了针对 OpenClaw 的优化镜像,只需在轻量应用服务器控制台选择“OpenClaw”镜像,一键购买即可。
购买后,通过 SSH 登录服务器进行简单收尾:

bash

# 放行核心端口(如果控制台未自动放行) sudo ufw allow 18789/tcp sudo ufw enable # 配置你的 API Key(以阿里云百炼为例) openclaw config set model.provider aliyun_bailian openclaw config set model.apiKey "你的百炼API-Key" # 生成访问令牌并启动服务 openclaw token generate sudo systemctl start openclaw

访问 http://<你的服务器IP>:18789 即可看到控制台。

方式 B:Docker 部署(推荐)

使用 Docker 可以实现完美的环境隔离和便捷的版本更新。

  1. 安装 Docker(在 VPS 上):bashcurl -fsSL https://get.docker.com | sudo sh sudo usermod -aG docker $USER # 退出 SSH 重新登录生效
  2. 创建配置目录和 docker-compose.yml:yamlservices: openclaw: image: ghcr.io/openclaw/openclaw:latest container_name: openclaw-gateway restart: always ports: # 仅监听本地,通过 SSH 隧道访问更安全 - "127.0.0.1:18789:18789" volumes: - ~/openclaw/data:/home/node/.openclaw environment: - NODE_ENV=production
  3. 启动服务:bashdocker compose up -d
  4. 建立 SSH 隧道访问
    在你的个人电脑上执行:bashssh -L 18789:127.0.0.1:18789 user@你的服务器IP保持此窗口打开,然后打开浏览器访问 http://127.0.0.1:18789,即可安全地远程管理你的 OpenClaw。

四、 初始化配置与核心概念

无论哪种方式安装,你都需要完成关键的配置步骤。

1. 运行 Onboarding 向导

执行 openclaw onboard,向导会要求你确认三个核心内容:

  • AI 模型:选择你的模型提供商(如 OpenAI、Anthropic、Google Gemini 或兼容 OpenAI 接口的国内服务商),并输入对应的 API Key。
  • 通讯渠道:选择你希望与 AI 交互的软件,如 Telegram、飞书等。你可以先跳过,后续再配置。
  • 安装基础 Skills:推荐安装官方套件,这是 AI 能力的来源。

2. 理解 Gateway(核心服务)

在配置过程中,你会反复听到 Gateway 这个词。它是 OpenClaw 的心脏,是一个始终在后台运行的守护进程,负责消息路由、与 AI 模型通信以及管理各种插件的生命周期。确保它一直在运行非常重要。

常用网关管理命令:

bash

# 查看网关状态 openclaw status # 或 openclaw gateway status # 启动/重启网关(修改配置后常用) openclaw gateway start openclaw gateway restart # 查看实时日志(排错必备) openclaw logs follow

3. 访问 Web 控制台

一切就绪后,运行 openclaw dashboard,浏览器会自动打开本地控制台(通常是 http://127.0.0.1:18789)。在这里,你可以像使用 ChatGPT 一样与你的助理对话,管理文件、记忆和技能。

五、 扩展你的AI助理:接入 Skill 与飞书

1. 安装核心 Skill(技能)

OpenClaw 的强大在于其插件化生态。你可以通过命令行安装各种技能,让它变成“多面手”。

bash

# 安装官方办公套件(处理文档、PPT、Excel) openclaw plugins install @anthropic-ai/official-skills # 安装资讯筛选工具(自动摘要优质博客) openclaw plugins install ai-daily-digest # 安装飞书集成插件(以飞书为例) openclaw plugins install @m1heng-clawd/feishu

2. 实战:配置飞书机器人

假设你需要让团队在飞书上使用这个 AI 助理,可以参照以下逻辑(具体操作可参考飞书开放平台文档):

  1. 创建飞书应用:在飞书开发者后台创建企业自建应用,获取 App ID 和 App Secret
  2. 配置权限:在飞书应用的权限管理中,开通“接收消息”、“获取用户信息”等权限,并配置事件订阅地址为长连接模式。
  3. 绑定 OpenClaw:bashopenclaw channels add feishu --app-id "你的App ID" --app-secret "你的App Secret"
  4. 发布应用:在飞书后台发布版本,然后@你的机器人,即可开始交互。

六、 常用命令速查与避坑指南

常用命令速查表

命令作用
openclaw doctor全面健康检查,自动诊断环境问题 
openclaw config查看/修改当前配置(如更换 API Key)
openclaw channels list查看已连接的聊天渠道状态 
openclaw memory search "关键词"在 AI 的长期记忆中搜索相关信息 
openclaw tui在终端界面中直接与 AI 聊天(极客风)

高频踩坑与解决方案

  1. command not found: openclaw
    • 原因:npm 全局安装目录未添加到系统 PATH。
    • 解决:运行 npm prefix -g 找到路径(如 /usr/local),然后将 export PATH="$(npm prefix -g)/bin:$PATH" 添加到你的 ~/.zshrc 或 ~/.bashrc 中。
  2. Node.js 版本过低
    • 原因:OpenClaw 依赖 Node 22+ 的某些特性。
    • 解决:Windows 用 nvm-windows 切换版本;Mac/Linux 用 sudo n 22 升级 。
  3. Windows 下插件安装失败或飞书配置报错
    • 原因:原生 Windows 环境未经过完整测试。
    • 解决:优先使用 WSL2 (Windows Subsystem for Linux 2) 进行安装,体验更接近 Linux 服务器,出错率大大降低。
  4. Linux 服务器关机后 Gateway 消失
    • 原因:使用了 systemd 用户服务,默认会在用户退出登录时停止。
    • 解决:开启用户驻留功能 sudo loginctl enable-linger $USER,或者直接配置成系统服务

七、 总结

至此,你已经拥有了一个完全属于自己、可以随时调教的 AI 助理。从简单的问答,到自动整理周报、监控 RSS 订阅,甚至帮你写完这篇博客的下一篇,OpenClaw 的想象空间完全由你定义。

AI 工程化的浪潮已来,亲手搭建一个本地 Agent 是最好的入门方式。如果在部署过程中遇到任何问题,欢迎在评论区留言交流!

Read more

前端国际化实现方案:让你的应用走向全球

前端国际化实现方案:让你的应用走向全球 毒舌时刻 国际化?听起来就像是前端工程师为了显得自己很专业而特意搞的一套复杂流程。你以为随便加个i18n库就能实现国际化?别做梦了!到时候你会发现,翻译文件比代码还多,维护起来比代码还麻烦。 你以为翻译就是简单的文本替换?别天真了!不同语言的语法结构不同,直接替换会导致语法错误。还有那些所谓的国际化库,看起来高大上,用起来却各种问题。 为什么你需要这个 1. 全球用户:国际化可以让你的应用支持全球用户,扩大用户群体。 2. 用户体验:使用用户的母语可以提高用户体验,增加用户粘性。 3. 市场竞争力:支持多语言的应用在国际市场上更具竞争力。 4. 合规要求:某些国家和地区要求应用提供当地语言支持。 5. 品牌形象:支持多语言可以提升品牌的国际化形象。 反面教材 // 1. 硬编码文本 function Welcome() { return <h1>Welcome to our app!</h1&

如何使用AI高效读论文,照做这些方法和指令你也可以一天阅读50篇

如何使用AI高效读论文,照做这些方法和指令你也可以一天阅读50篇

你好,这里是AI应用探索,专注探索AI应用。 今天分享如何借助AI工具高效阅读论文。 不管是写毕业论文,还是学术研究论文。首先都离不开大量阅读论文,通过阅读论文: * 可以了解本领域以及相关领域的最新理论、方法、技术和发现,为自己的研究提供最新的知识基础和研究思路。 * 可以发现当前研究中尚未解决的问题、存在的争议点或研究空白,从而受到启发,找到感兴趣且具有研究价值的课题方向。 * 可以借鉴研究方法。论文中包含各种各样的研究方法,比如实验设计、数据分析方法、理论推导方式等。这些都可以参考,以便在自己的研究中选择合适的方法。 这个过程通常包括三个阶段: 1. 检索相关研究论文:首先得知道有哪些论文和你的研究主题相关,论文千千万,但真正与你相关的往往只有少量。 2. 阅读与理解论文:详细了解论文的研究内容、方法,及结论。 3. 论文梳理及知识管理:总结并汇集各论文的核心研究内容及方法,形成论文领域的‘知识库’。 传统上,这三个阶段需要耗费大量的时间、精力,甚至有些论文60%以上的时间精力都消耗在这上面。 下面详细介绍如何借力AI,大幅提高这些阶段任务的效率及产出质

火山引擎AI大模型对比GLM-4.6V-Flash-WEB:谁更适合中小开发者?

火山引擎AI大模型对比GLM-4.6V-Flash-WEB:谁更适合中小开发者? 在智能应用开发门槛不断降低的今天,越来越多的中小团队开始尝试将AI能力嵌入到产品中。尤其是图像理解、图文问答这类多模态任务,已不再是头部科技公司的专属——从电商商品识别到教育题库解析,再到企业内部文档自动化处理,视觉语言模型(Vision-Language Model, VLM)正悄然改变着轻量级应用的交互方式。 但现实挑战依然存在:商业API按调用次数收费,长期使用成本高;自研模型又面临部署复杂、资源消耗大、推理延迟高等问题。对于预算有限、人手紧张的中小开发者而言,如何在“性能”、“成本”和“可控性”之间找到平衡点? 正是在这一背景下,智谱AI推出的 GLM-4.6V-Flash-WEB 引起了广泛关注。这款专为Web级场景优化的开源多模态模型,号称能在一块消费级显卡上实现百毫秒级响应,且完全支持本地部署。它真的能成为中小开发者的“平民化AI利器”吗?与火山引擎等主流商业平台相比,又有哪些取舍? 从一个典型场景说起 设想你正在开发一款面向小微商户的发票报销小程序。用户上传一张PDF或截图,系统

2026全球AI最新全景(2月):中美对标、算力/模型/应用全数据,打破信息差

2026全球AI最新全景(2月):中美对标、算力/模型/应用全数据,打破信息差

关键词:AI 2026、大模型、智能体、算力、中美 AI 对比、AI 避坑、AI 落地 前言:你正在被 AI 碎片化信息收割 打开抖音,全是 “AI 一夜暴富”;刷知乎,全是 “大模型已死”;逛 ZEEKLOG,全是 “教程过时、参数内卷”。90% 的人,都在无效信息里内耗—— 不知道全球 AI 真实进展、不知道技术趋势、不知道落地价值、不知道哪些能做、哪些是坑。 本文耗时 7 天,我整合了ZEEKLOG / 知乎 / 抖音三大平台高赞内容、海外官方发布、行业真实数据、企业落地案例,用可验证、可复现、