【养龙虾】OpenClaw 安装部署全流程 - 手把手教你搭建自己的 AI 助手

【养龙虾】OpenClaw 安装部署全流程 - 手把手教你搭建自己的 AI 助手
折腾了整整两天,终于把 OpenClaw 部署好了!过程中踩了不少坑,今天把完整流程记录下来,希望能帮到想入门的小伙伴。本文适合零基础新手,大佬请绕道~
既然都开始养虾了,那肯定少不了让它来生成一篇养虾的过程文章。
在这里插入图片描述

目录

🤔 什么是 OpenClaw?

简单来说,OpenClaw 是一个自托管的 AI 网关,它可以把你常用的聊天软件(微信、Telegram、Discord、iMessage…)和一个 AI 助手连接起来。

举几个例子:

  • 📱 在微信上发消息,AI 就能自动回复
  • 💬 在 Discord 群里 @它,AI 就能参与讨论
  • 📲 人在外面用 WhatsApp 随时召唤你的私人 AI

为什么叫"龙虾"?

  • 官方 Logo 就是一只红色卡通龙虾 🦞
  • 英文名 OpenClaw 直译是"开源的钳子",像龙虾的大爪子

🛠️ 环境准备

硬件要求

配置最低要求推荐配置
操作系统macOS 10.15+ / Linux / Windows WSL2macOS 12+
内存8GB16GB+
存储空间5GB20GB+
网络能访问国际互联网稳定带宽

软件要求

# 检查 Node.js 版本(需要 Node 22+)node--version# 如果没有 Node.js,推荐使用 nvm 安装curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.39.0/install.sh |bash nvm install22 nvm use 22

💡 小提示:如果你用的是 macOS,推荐直接用 Homebrew 安装:

brew install node@22 

📋 安装步骤

方式一:macOS 用户(最简单)

如果你用的是 Mac,强烈推荐使用官方 App,体验最丝滑:

# 方法 1:直接下载安装包# 访问 https://github.com/openclaw/openclaw/releases 下载 .dmg 文件# 方法 2:使用 Homebrew brew install openclaw/tap/openclaw 

安装完成后,打开 OpenClaw.app,它会出现在菜单栏。

方式二:命令行安装(跨平台)

这是最通用的安装方式,Linux/Windows WSL/Mac 通用:

# 1. 全局安装 OpenClaw CLInpminstall-g openclaw # 2. 验证安装 openclaw --version# 3. 初始化设置 openclaw setup 

运行 openclaw setup 后,会出现交互式引导,按提示选择即可。

⚠️ 注意:有些渠道需要额外配置,比如 Telegram 需要先找 @BotFather 申请 Bot Token,Discord 需要创建开发者应用。

方式三:Docker 部署(适合服务器)

如果你是部署在服务器上,Docker 是最省心的选择:

# 1. 拉取镜像docker pull openclaw/openclaw:latest # 2. 创建配置目录mkdir-p ~/.openclaw # 3. 运行容器docker run -d\--name openclaw \-p18789:18789 \-v ~/.openclaw:/root/.openclaw \ openclaw/openclaw:latest 

🔧 详细配置

配置文件位置
~/.openclaw/openclaw.json
基础配置示例

{"gateway":{"port":18789, "verbose":true}, "channels":{"telegram":{"enabled": true, "botToken":"YOUR_BOT_TOKEN_HERE"}, "discord":{"enabled": true, "botToken":"YOUR_DISCORD_BOT_TOKEN"}}, "model":{"provider":"anthropic", "model":"claude-sonnet-4-20250514", "apiKey":"sk-ant-xxx..."}}

🔐 安全提醒:建议使用环境变量而非直接在配置文件写敏感信息

🔗 渠道配置详解

Telegram 配置步骤

Step 1:创建 Bot

1.打开 Telegram,搜索 @BotFather
2.发送 /newbot 命令
3.给你的 Bot 起个名字(比如 “我的 AI 助手”)
4.给你的 Bot 设置用户名(必须以 _bot 结尾)
5.复制 Bot Father 给你的 Token

Step 2:配置 OpenClaw

openclaw config set channels.telegram.botToken "你的Token"

Step 3:启动并测试

openclaw gateway # 在 Telegram 中搜索你的 Bot 用户名,发送 /start 进行配对

Discord 配置步骤

Step 1:创建 Discord 应用
1.访问 https://discord.com/developers/applications
2.点击 “New Application”

Step 2:创建 Bot
1.进入 “Bot” 页面
2.点击 “Add Bot”
3.复制 Bot Token(记得开启 Message Content Intent)

Step 3:邀请 Bot 到服务器
1.进入 “OAuth2” -> “URL Generator”
2.勾选 bot 权限
3.复制生成的 URL,在浏览器中打开并选择服务器

🚀 启动与验证

启动 Gateway

# 前台运行(查看日志) openclaw gateway --verbose# 后台运行 openclaw gateway &

验证

openclaw health 

打开控制台
浏览器访问 http://127.0.0.1:18789

架构流程图

用户发送消息 → 聊天渠道 → Gateway → AI Model → 返回消息

🔍 常见问题汇总

Q1:启动报错 “Port 18789 already in use”

lsof-i :18789 # 或者换端口 openclaw gateway --port18790

Q2:Telegram Bot 发消息没反应
1.检查 Bot Token 是否正确
2.确保已经和 Bot 发起对话(需要先私聊 /start)
3.查看日志:openclaw gateway --verbose

Q3:Discord 提示 “Missing Access”
1.检查 Bot 权限是否足够
2.确保 Bot 已在服务器中
3.在 Discord Developer Portal 检查 intents 设置

⚠️ 注意事项

1.网络安全:部署在公网时务必配置访问密码
2.Token 消耗:AI 对话需要消耗 API Token,注意费用
3.隐私安全:不要在对话中输入敏感个人信息
4.及时更新:关注官方 releases 更新安全补丁

📚 参考资料

💬 最后

部署完成的那一刻,看到控制台显示"🟢 已连接",你就成功开始养虾啦!
祝大家都能养好自己的"小龙虾"! 🦞🚀

Read more

开源AI电话机器人外呼系统实战:从架构设计到生产环境部署

快速体验 在开始今天关于 开源AI电话机器人外呼系统实战:从架构设计到生产环境部署 的探讨之前,我想先分享一个最近让我觉得很有意思的全栈技术挑战。 我们常说 AI 是未来,但作为开发者,如何将大模型(LLM)真正落地为一个低延迟、可交互的实时系统,而不仅仅是调个 API? 这里有一个非常硬核的动手实验:基于火山引擎豆包大模型,从零搭建一个实时语音通话应用。它不是简单的问答,而是需要你亲手打通 ASR(语音识别)→ LLM(大脑思考)→ TTS(语音合成)的完整 WebSocket 链路。对于想要掌握 AI 原生应用架构的同学来说,这是个绝佳的练手项目。 从0到1构建生产级别应用,脱离Demo,点击打开 从0打造个人豆包实时通话AI动手实验 开源AI电话机器人外呼系统实战:从架构设计到生产环境部署 目录 * 传统外呼系统的三大技术痛点 * 通信框架与ASR技术选型 * 核心架构实现详解 * 高并发场景下的性能优化 * 生产环境避坑指南 * 从规则引擎到LLM的演进 传统外呼系统的三大技术痛点 1. 智能路由缺失:

【Microi吾码】:低代码加速业务和技术深度融合

【Microi吾码】:低代码加速业务和技术深度融合

目录 一.低代码优势: 1.1低代码平台和传统代码开发: 1.2低代码和0代码平台: 1.3低代码平台:Microi吾码 二.关于开源低代码平台:Microi吾码 2.1Mircroi吾码介绍: 2.2产品特点: 2.3产品团队优势: 三.使用Microi吾码: 3.1安装: 3.1.1CentOS7一键安装脚本: 3.1.2注意事项: 3.1.2脚本代码: 3.2快速使用---打印引擎: 3.3快速使用---接口引擎: 四.成功案例: 一.低代码优势: 1.1低代码平台和传统代码开发: 低代码平台显著提升开发速度,通过可视化界面与预建模块,能快速搭建应用,大幅缩短开发周期,适用于快速迭代项目。而传统代码开发需从零编写大量代码,开发过程复杂、耗时久,

免费部署openClaw龙虾机器人(经典)

免费部署openClaw龙虾机器人(经典)

前几天出了个免费玩龙虾的详细教程,很多小伙伴觉得不错,但是还有一些新手留言反馈内容不够详细,这次我将重新梳理一遍,做一期更细致的攻略,同时扩展补充配置好之后的推荐(我认为是必要)操作,争取一篇文章让大家可以收藏起来,随时全套参照复用。 先看效果测试 部署完成基础运行效果测试,你可以直接问clawdbot当前的模型: 1.Token平台准备 首先,还是准备好我们可以免费撸的API平台 这里我找到了两个可以免费使用的API,测试之后执行效率还可以,下面将分别进行细致流程拆解。 1.1 硅基流动获取ApiKey (相对免费方案 推荐) 硅基流动地址:https://cloud.siliconflow.cn/i/6T57VxS2 如果有账号的直接登录,没有的注册一个账号,这个认证就送16元,可以直接玩收费模型,真香。认证完成后在API秘钥地方新建秘钥。 硅基流动里面很多模型原来是免费的,有了16元注册礼,很多收费的模型也相当于免费用了,我体验一下了原来配置免费模型还能用,也是值得推荐的。建议使用截图的第一个模型体验一下,我一直用它。 1.2 推理时代

安卓端 AI 绘画新突破:local-dream 项目让 Stable Diffusion 在手机端高效运行,骁龙 NPU 加速加持

安卓端AI绘画新突破:local-dream项目让Stable Diffusion在手机端高效运行,骁龙NPU加速加持 在AI绘画技术飞速发展的当下,Stable Diffusion作为主流模型,凭借出色的图像生成能力备受青睐。然而,其对硬件性能的较高要求,使得多数用户只能在电脑端体验。不过,随着“local-dream”项目的出现,这一局面被彻底打破。该项目专注于让安卓设备流畅运行Stable Diffusion模型,不仅支持高通骁龙NPU加速,还兼容CPU/GPU推理,为移动设备AI绘画开辟了全新路径。 项目核心目标与基础信息 “local-dream”项目的核心目标清晰明确,就是打破硬件限制,让安卓用户无需依赖高性能电脑,在手机或平板上就能轻松体验Stable Diffusion模型的强大图像生成功能。无论是日常创作、创意设计,还是简单的图像生成需求,用户都能随时随地通过安卓设备完成。 对于想要了解和使用该项目的用户,关键信息必不可少。项目的GitHub地址为https://github.com/xororz/local-dream,用户可以在这里获取项目的源代码、详细