Clawdbot(Moltbot)源码部署全实测:从环境搭建到 WebChat 验证,避坑指南收好

Clawdbot(Moltbot)源码部署全实测:从环境搭建到 WebChat 验证,避坑指南收好

一、为啥折腾 Clawdbot?

最近刷技术圈总刷到 Clawdbot(后来也叫 Moltbot),说是能搭私人 AI 助手,支持 WhatsApp、Telegram 这些常用通道,还能跑在自己设备上,不用依赖第三方服务 —— 想着拉下来测试一下功能,顺便研究一下其源码的实现。
于是拉上 GitHub 仓库https://github.com/openclaw/openclaw,打算从源码部署试试,过程里踩了不少坑,干脆整理成记录,给同样想折腾的朋友避避坑。

二、源码部署前的准备:Windows 环境优先选 WSL2

一开始想直接用 Windows CMD 部署,结果装依赖时各种报错,查仓库文档才发现 Windows 推荐用 WSL2(Ubuntu/Debian 镜像就行),后续操作全在 WSL2 里完成:

  1. 启用 WSL2:先在 Windows 功能里勾 “适用于 Linux 的 Windows 子系统” 和 “虚拟机平台”,重启后装 Ubuntu 22.04(微软应用商店直接搜)
  2. 配置 WSL2:打开 Ubuntu 终端,先更系统源(换阿里源,不然后续装包巨慢),再 sudo apt update && sudo apt upgrade -y
  3. 装 Git:sudo apt install git,验证 git --version,避免后续拉仓库出错

我没有执行这一步,导致后面构建项目报错,后面有其他的解决方案。

三、Node.js 安装:别踩 “版本不够” 的坑

仓库文档说要 Node≥22,这里使用nvm管理环境,并切换到node最新版本。

在这里插入图片描述


注意:不要用22以下的,在pnpm install会报错。

四、拉取源码 & 装依赖

1、安装依赖

git clone https://github.com/openclaw/openclaw.git cd openclaw pnpm install 

在安装依赖时候会报错:

在这里插入图片描述


问题分析
node-llama-cpp 的 postinstall 脚本失败,错误码 3221225477 通常表示:
访问冲突或权限问题或Windows 上缺少必要的构建工具

node-llama-cpp 是可选依赖,仅用于本地嵌入。如果使用远程嵌入(如 OpenAI),可忽略该错误。项目会回退到远程嵌入。故注释掉 package.json 里面的 node-llama-cpp的依赖,重新进行 pnpm install

在这里插入图片描述

2、构建项目

前面安装依赖没问题之后,先构建ui

pnpm ui:build 
在这里插入图片描述


构建项目

pnpm build 
在这里插入图片描述


这是由于OpenClaw 在 Windows 上推荐使用 WSL2。在原生 Windows 上构建需要 bash。检查是否有 Git Bash 可用,或创建一个 Node.js 版本的构建脚本:
此处在项目的/script 目录下创建一个 nodejs版本的构建脚本 bundle-a2ui.mjs,代码如下:

#!/usr/bin/env nodeimport{ createHash }from"node:crypto";import{ promises as fs }from"node:fs";import path from"node:path";import{ fileURLToPath }from"node:url";import{ spawn }from"node:child_process";import{ promisify }from"node:util";const spawnAsync =promisify(spawn);const __filename =fileURLToPath(import.meta.url);const __dirname = path.dirname(__filename);constROOT_DIR= path.resolve(__dirname,"..");constHASH_FILE= path.join(ROOT_DIR,"src/canvas-host/a2ui/.bundle.hash");constOUTPUT_FILE= path.join(ROOT_DIR,"src/canvas-host/a2ui/a2ui.bundle.js");constA2UI_RENDERER_DIR= path.join(ROOT_DIR,"vendor/a2ui/renderers/lit");constA2UI_APP_DIR= path.join(ROOT_DIR,"apps/shared/OpenClawKit/Tools/CanvasA2UI");asyncfunctioncheckDirExists(dir){try{const stat =await fs.stat(dir);return stat.isDirectory();}catch{returnfalse;}}asyncfunctionwalk(entryPath, files =[]){const st =await fs.stat(entryPath);if(st.isDirectory()){const entries =await fs.readdir(entryPath);for(const entry of entries){awaitwalk(path.join(entryPath, entry), files);}return files;} files.push(entryPath);return files;}functionnormalize(p){return p.split(path.sep).join("/");}asyncfunctioncomputeHash(){const inputPaths =[ path.join(ROOT_DIR,"package.json"), path.join(ROOT_DIR,"pnpm-lock.yaml"),A2UI_RENDERER_DIR,A2UI_APP_DIR,];const files =[];for(const inputPath of inputPaths){try{const stat =await fs.stat(inputPath);if(stat.isDirectory()|| stat.isFile()){awaitwalk(inputPath, files);}}catch{// Path doesn't exist, skip}} files.sort((a, b)=>normalize(a).localeCompare(normalize(b)));const hash =createHash("sha256");for(const filePath of files){const rel =normalize(path.relative(ROOT_DIR, filePath)); hash.update(rel); hash.update("\0");const content =await fs.readFile(filePath); hash.update(content); hash.update("\0");}return hash.digest("hex");}asyncfunctionrunCommand(command, args, options ={}){returnnewPromise((resolve, reject)=>{const proc =spawn(command, args,{...options,stdio:"inherit",shell:false,}); proc.on("close",(code)=>{if(code ===0){resolve();}else{reject(newError(`Command failed with exit code ${code}`));}}); proc.on("error", reject);});}asyncfunctionmain(){try{// Docker builds exclude vendor/apps via .dockerignore.// In that environment we must keep the prebuilt bundle.if(!(awaitcheckDirExists(A2UI_RENDERER_DIR))||!(awaitcheckDirExists(A2UI_APP_DIR))){ console.log("A2UI sources missing; keeping prebuilt bundle."); process.exit(0);}const currentHash =awaitcomputeHash();let shouldBuild =true;try{const previousHash =await fs.readFile(HASH_FILE,"utf-8");const outputExists =await fs .access(OUTPUT_FILE).then(()=>true).catch(()=>false);if(previousHash.trim()=== currentHash && outputExists){ console.log("A2UI bundle up to date; skipping."); shouldBuild =false;}}catch{// Hash file doesn't exist, need to build}if(shouldBuild){ console.log("Building A2UI bundle...");awaitrunCommand("pnpm",["-s","exec","tsc","-p", path.join(A2UI_RENDERER_DIR,"tsconfig.json")]);awaitrunCommand("pnpm",["-s","exec","rolldown","-c", path.join(A2UI_APP_DIR,"rolldown.config.mjs")]);await fs.writeFile(HASH_FILE, currentHash,"utf-8"); console.log("A2UI bundle built successfully.");}}catch(error){ console.error("A2UI bundling failed. Re-run with: pnpm canvas:a2ui:bundle"); console.error("If this persists, verify pnpm deps and try again."); console.error(error); process.exit(1);}}main();

重新构建项目 pnpm build

在这里插入图片描述


构建完成。

六、配置 OpenClaw

直接跑向导 pnpm openclaw onboard --install-daemon

在这里插入图片描述


进来这个提示,先按照yes和quickstart方式快速配置

在这里插入图片描述


**配置模型:**这里选择智谱AI

在这里插入图片描述


配置api-key

在这里插入图片描述


配置channel
支持接入不同的app,这里没有不支持微信等国内的生态,暂时先跳过,使用webchat测试。

在这里插入图片描述


配置skills

在这里插入图片描述



可选的内置skills很多,注意,这里按空格选中,选好之后,按回车保存。
但选择对应的skills后,很多需要配置对应的key才能使用,这个需要提前在对应的网站申请key。

在这里插入图片描述


配置Hooks:
先跳过,暂时不用。

在这里插入图片描述


启动Gateway service
保存好上面配置后,会自动启动网关服务。

在这里插入图片描述


在这里插入图片描述


同时ui应用也会启动,至此配置完成

七、发送消息没有响应

第一次启动配置完后,发现发送消息并没有得到响应,控制台也没有报错。

在这里插入图片描述


后来发现是我的GLM4.7 限额了。这时候可以直接修改 openclaw.json配置文件进行修改配置。

在这里插入图片描述


改为flash模型

在这里插入图片描述


后续所有和openclaw agent相关的配置都可以通过修改该文件,不需要重复进入向导配置。

注意:修改后记得重启 gateway service ,否则不生效。
pnpm openclaw gateway restart --allow-unconfigured

在这里插入图片描述


可使用 openclaw status查看网关启动状态

在这里插入图片描述

八、常用命令

  1. 查看状态:openclaw status(快速看 Gateway 和通道是否在线)
  2. 发送测试消息:openclaw message send --to 自己的手机号(带国家码,比如 + 86138xxxxxxx) --message “测试 Clawdbot”,能收到消息说明通道没问题
  3. 重置会话:openclaw agent --reset(对话卡顿时用)
  4. 检查问题:openclaw doctor(神器!会提示配置和环境的问题,比如 DM 策略风险、依赖缺失)
  5. 更新版本:openclaw update --channel stable(新手别更 dev 通道,不稳定)

九、WebChat 测试

由于没有接入其他channel,这里直接用原生的ui webchat进行测试。

测试调用工具读取文件的能力

在这里插入图片描述

测试其 Computer Use的能力

直接写入文件到系统。

在这里插入图片描述


在这里插入图片描述


在这里插入图片描述


在这里插入图片描述


可见其调用工具,Computer use能力还是比较强的

Read more

WebSocket 超细致完整用法讲解(含原理 + 前端 + 后端 + 实战案例 + 避坑)

你想要透彻掌握 WebSocket 的完整用法,我会从核心原理、前后端完整代码、使用场景、核心 API、心跳保活、常见问题等维度,一步步细致讲解,内容通俗易懂,学完就能直接落地开发。 一、WebSocket 核心认知(必懂,理解了用法才通透) 1. WebSocket 是什么? WebSocket 是 HTML5 新增的一种「全双工、持久化」的网络通信协议,协议标识是 ws://(明文)和 wss://(加密,推荐生产环境用),是 HTTP 协议的补充和升级。 2. 为什么需要 WebSocket?HTTP 协议的痛点 HTTP 协议是 「单工 / 半双工」、「短连接」、「无状态」 的通信模式,

前端国际化实现方案:让你的应用走向全球

前端国际化实现方案:让你的应用走向全球 毒舌时刻 国际化?听起来就像是前端工程师为了显得自己很专业而特意搞的一套复杂流程。你以为随便加个i18n库就能实现国际化?别做梦了!到时候你会发现,翻译文件比代码还多,维护起来比代码还麻烦。 你以为翻译就是简单的文本替换?别天真了!不同语言的语法结构不同,直接替换会导致语法错误。还有那些所谓的国际化库,看起来高大上,用起来却各种问题。 为什么你需要这个 1. 全球用户:国际化可以让你的应用支持全球用户,扩大用户群体。 2. 用户体验:使用用户的母语可以提高用户体验,增加用户粘性。 3. 市场竞争力:支持多语言的应用在国际市场上更具竞争力。 4. 合规要求:某些国家和地区要求应用提供当地语言支持。 5. 品牌形象:支持多语言可以提升品牌的国际化形象。 反面教材 // 1. 硬编码文本 function Welcome() { return <h1>Welcome to our app!</h1&

HTML前端如何调用大模型?OpenAI接口兼容模式来了

HTML前端如何调用大模型?OpenAI接口兼容模式来了 在当今的Web开发中,越来越多的应用开始集成大语言模型(LLM)能力——从智能客服到内容生成,从前端自动化助手到多模态交互界面。然而,一个现实问题是:前端本身无法直接运行大模型,而传统的API接入方式又往往依赖特定平台、协议不统一、集成复杂。 有没有一种方式,能让纯HTML页面像调用普通HTTP接口一样,轻松“对话”本地或私有部署的大模型? 答案是肯定的——通过 OpenAI接口兼容模式,任何支持fetch的浏览器环境都可以无缝对接开源大模型服务,无需SDK、无需后端代理封装,真正实现“开箱即用”的前端集成体验。 这种模式的核心思想其实很朴素:让非OpenAI的服务,说OpenAI的语言。 换句话说,即便你部署的是Qwen、Llama3或者ChatGLM这类开源模型,只要你的推理服务能接收 /v1/chat/completions 这样的请求路径,并返回与OpenAI格式一致的JSON结构,那么前端代码就可以完全复用现有的调用逻辑,甚至可以直接使用 openai-js 客户端库。 这背后的关键推动力之一,正是像 ms

国产化服务器部署:银河麒麟系统搭建 Web 服务实战

一、前言 在国产化替代浪潮下,政企单位对服务器硬件、操作系统的国产化适配需求日益迫切。银河麒麟操作系统(Kylin OS)作为国内自主研发的主流服务器操作系统,凭借其高安全性、稳定兼容性和完善的国产化生态支持,成为服务器部署的核心选择之一。 Web 服务作为企业数字化转型的基础载体,广泛应用于内部办公系统、业务展示平台、国产化应用发布等场景。本文将聚焦 “银河麒麟服务器版搭建 Web 服务” 的全流程实战,从环境准备、软件安装、配置优化到访问测试,一步步带大家实现国产化服务器的 Web 服务部署,同时规避常见坑点,兼顾实用性与国产化适配特性。 本文适用于银河麒麟服务器版(推荐 Kylin Server V10 SP3),以主流的 Nginx 作为 Web 服务器软件(轻量化、高性能,适配国产化芯片架构),全程提供可直接复制的命令和配置示例,零基础也能快速上手。 二、前期准备 2.1