在github codespaces部署开源个人智能体OpenClaw(Clawdbot/Moltbot)使用教程

openClaw官方仓库:https://github.com/openclaw/openclaw

OpenClaw 是什么?

OpenClaw(原名 Clawdbot,后更名为 Moltbot,现正式命名为 OpenClaw)是一个运行在你本地环境的高权限 AI 智能体。它的核心特性包括:

  • 本地部署:运行在你的服务器或电脑上,数据完全自主可控
  • 多平台支持:支持飞书、WhatsApp、Telegram、Discord、Slack 等主流聊天工具
  • 浏览器控制:可以浏览网页、填写表单、提取数据
  • 系统访问:读写文件、执行 Shell 命令、运行脚本
  • 持久化记忆:记住你的偏好和上下文,成为真正属于你的 AI
  • 插件扩展:支持社区技能插件,甚至可以自己编写插件

无论是邮件管理、日程安排、数据查询还是代码编写,OpenClaw 都能成为你的得力助手。

进入github

创建一个新仓库openclawd

为项目创建codesapce

打开codespace

在命令行查看操作系统和node版本

# 使用官方脚本安装 curl -fsSL https://openclaw.bot/install.sh | bash # 备用方案 pnpm add -g openclaw@latest

执行成功后界面如上图所求,3分钟后

选择yes

选quickStart快速开始

选择Qwen

Error: Qwen OAuth timed out waiting for authorization.

不好意思,失败,重新安装,全部选skip

openclaw status openclaw gateway openclaw gateway --allow-unconfigured #重新安装,再一遍 openclaw onboard --install-daemon #重启 openclaw gateway --port 18789 --verbose 1008报错 openclaw dashboard --no-open openclaw status

都无法访问,直接重装。在端口里可以添加18789进行转发

启动正常,进入界面

接入国产大模型
1 深度求索(DeepSeek)
获取APIkey:https://platform.deepseek.com/api_keys
在apiKey处输入你的apikey即可

openclaw config set 'models.providers.deepseek' --json '{   "baseUrl": "https://api.deepseek.com/v1",   "apiKey": "",   "api": "openai-completions",   "models": [     { "id": "deepseek-chat", "name": "DeepSeek Chat" },     { "id": "deepseek-reasoner", "name": "DeepSeek Reasoner" }   ] }'


 
设置 models.mode 为 merge

openclaw config set models.mode merge


设置默认模型(以deepseek-chat为例)

openclaw models set deepseek/deepseek-chat

查看状态 openclaw status

接下来会提示选择 channel,这里先跳过,后续再添加

继续下面选择 skills,也是选择 No,如下图


继续下面选择 hooks,也是使用空格选择 No,如下图

也可以全部选中,不是自己的机器无所谓

然后等待安装完成,最后会出现以下选项,这里选择 TUI

如果看到 TUI 聊天界面,说明安装成功,可以尝试输入 Hello 进行测试。

然后直接使用 ctrl+c 先关闭,后面我们再来设置

查看服务

可以使用下面的命令来查看

openclaw dashboard

有任何问题欢迎留言讨论

discord账号创建

开始配置OpenClaw

首次登入服务器后,输入并回车运行如下命令开始配置:

openclaw onboard

运行 clawdbot onboard 后,需要通过键盘来完成后续配置动作,关键操作:方向键控制选项,回车表示选择并确认。

企业微信创建webhook

腾讯云部署成功的配置文件。需要wxcom插件的留言

{ "meta": { "lastTouchedVersion": "2026.1.30", "lastTouchedAt": "2026-02-04T15:22:13.503Z" }, "wizard": { "lastRunAt": "2026-02-04T15:22:13.490Z", "lastRunVersion": "2026.1.30", "lastRunCommand": "onboard", "lastRunMode": "local" }, "models": { "mode": "merge", "providers": { "hunyuan": { "baseUrl": "https://api.hunyuan.cloud.tencent.com/v1", "apiKey": "sk-VLWz4jTTsNKdlzWbukXXXX", "api": "openai-completions", "models": [ { "id": "hunyuan-turbos-latest", "name": "混元 TurboS Latest", "reasoning": false, "input": [ "text" ], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 200000, "maxTokens": 8192 } ] } } }, "agents": { "defaults": { "model": { "primary": "hunyuan/hunyuan-turbos-latest" }, "workspace": "/root/.openclaw/workspace", "compaction": { "mode": "safeguard" }, "maxConcurrent": 4, "subagents": { "maxConcurrent": 8 } } }, "messages": { "ackReactionScope": "group-mentions" }, "commands": { "native": "auto", "nativeSkills": "auto" }, "channels": { "wecom": { "enabled": true, "token": "rRCJiQM31gl", "encodingAESKey": "Si7yiho6YHIjBXXXX" } }, "gateway": { "port": 18789, "mode": "local", "bind": "lan", "auth": { "mode": "token", "token": "011b07d4591794cdd776f726e9e06e06bafc2d99ac75116f" }, "tailscale": { "mode": "off", "resetOnExit": false } }, "skills": { "install": { "nodeManager": "npm" } }, "plugins": { "entries": { "feishu": { "enabled": true }, "qqbot": { "enabled": true }, "dingtalk": { "enabled": true }, "wecom": { "enabled": true } }, "installs": { "feishu": { "source": "npm", "spec": "@m1heng-clawd/feishu", "installPath": "/root/.openclaw/extensions/feishu", "version": "0.1.7", "installedAt": "2026-02-04T06:59:58.306Z" }, "qqbot": { "source": "npm", "spec": "https://github.com/sliverp/qqbot.git", "installPath": "/root/.openclaw/extensions/qqbot", "version": "1.3.0", "installedAt": "2026-02-04T07:01:02.258Z" }, "dingtalk": { "source": "archive", "sourcePath": "/tmp/tmp.XgWu7SxhWr/dingtalk.tgz", "installPath": "/root/.openclaw/extensions/dingtalk", "version": "0.2.0", "installedAt": "2026-02-04T07:01:41.777Z" }, "wecom": { "source": "archive", "sourcePath": "/tmp/tmp.lsxanbsiQ5/wecom.tgz", "installPath": "/root/.openclaw/extensions/wecom", "version": "2026.1.30", "installedAt": "2026-02-04T07:02:50.962Z" } } }, "hooks": { "internal": { "enabled": true, "entries": { "session-memory": { "enabled": true } } } } } 

Read more

Trae、Cursor、Copilot、Windsurf对比

我最开始用Copilot(主要是结合IDE开发时进行代码补全,生成单元测试用例),但是后面又接触了Cursor,发现Cursor比Copilot更加实用,Cursor生成的单元测试用例更加全面。         多以网上查了查资料,这里记录分享一下。         这篇文章资料来自于网络,是对部分知识整理,这里只是记录一下,仅供参考 前言         随着AI技术的爆发式发展,AI编程工具正在重塑软件开发流程。GitHub Copilot作为先驱者长期占据市场主导地位,但新一代工具如Cursor、Windsurf和Trae正以颠覆性创新发起挑战。本文基于多维度实测数据,深度解析三款工具的核心竞争力,揭示AI编程工具的格局演变趋势。 工具定位与核心技术 1. Cursor:智能化的全能助手         基于VS Code生态深度改造,Cursor融合GPT-4和Claude 3.5模型,支持自然语言转代码生成、跨文件智能补全和自动文档生成。其核心优势在于: * 上下文感知能力:可同时分析10+个关联文件的语义逻辑 * Agent模

By Ne0inhk
文心一言4.5开源模型实战:ERNIE-4.5-0.3B轻量化部署与效能突破

文心一言4.5开源模型实战:ERNIE-4.5-0.3B轻量化部署与效能突破

文心一言4.5开源模型实战:ERNIE-4.5-0.3B轻量化部署与效能突破 文心一言4.5开源模型实战:ERNIE-4.5-0.3B轻量化部署与效能突破,本文介绍百度文心一言 4.5 开源模型中 ERNIE-4.5-0.3B 的轻量化部署与效能。该 3 亿参数模型破解大模型落地的算力、效率、安全困局,在 FastDeploy 框架下实现单张 RTX 4090 承载百万级日请求等突破。文章解析其技术架构,给出本地化部署步骤,通过工业场景、中文特色、工程数学计算等测试验证其能力,还提供性能优化、安全加固及故障排查方法,展现其轻量高效与能力均衡特性。 引言:轻量化部署的时代突围 ✨ 当行业还在为千亿参数模型的算力消耗争论不休时,百度文心一言4.5开源版本以颠覆性姿态撕开了一条新赛道。2025年6月30日,💥 文心一言4.5系列模型正式开源,其中ERNIE-4.5-0.3B这款仅3亿参数的轻量模型,为破解大模型产业落地的三大困局提供了全新方案: * 算力成本困局:

By Ne0inhk
[源力觉醒 创作者计划]_文心一言 4.5开源深度解析:性能狂飙 + 中文专精

[源力觉醒 创作者计划]_文心一言 4.5开源深度解析:性能狂飙 + 中文专精

文章目录 * [源力觉醒 创作者计划]_文心一言 4.5开源深度解析:性能狂飙 + 中文专精 * 一. 部署实战:单卡环境的极速落地 * 1.1 🖥️ 环境配置の手把手教程 📝 * 部署准备:硬件与镜像 * 依赖安装:一行代码搞定 * 1.2 🚀 模型启动の参数与验证 ✅. * 二. 多场景能力验证:从工业到学术 * 2.1 🏥 医疗影像诊断:从模糊影像到病灶定位 * 2.2 🚦 交通流优化:动态拥堵预测与策略设计 * 2.3 🔍 考古文本破译:甲骨文符号的跨学科解读 * 三. 性能优化与问题解决 * 3.1 🚀 性能优化策略:让模型跑得更快 * 3.2 🛠️ 常见错误解决方案 * 四. 与同类模型对比 * 🍬 核心优势对比🍭 * 🍬 对比结论🍭 * 五、

By Ne0inhk

2025 嵌入式 AI IDE 全面对比:Trae、Copilot、Windsurf、Cursor 谁最值得个人开发者入手?

文章目录 * 2025 嵌入式 AI IDE 全面对比:Trae、Copilot、Windsurf、Cursor 谁最值得个人开发者入手? * 一、先给结论(个人开发者视角) * 二、2025 年 9 月最新价格与免费额度 * 三、横向体验对比(2025-11) * 1. 模型与响应 * 2. 项目理解力 * 3. 隐私与离线能力 * 四、怎么选?一句话总结 * 五、官方链接(清晰明了) * 六、结语:AI IDE 2025 的趋势 * 七、AI IDE 的底层工作原理:编辑器为什么突然变聪明了? * 1. 解析层:把你的项目拆得比你自己还清楚 * 2. 索引层:

By Ne0inhk