在github codespaces部署开源个人智能体OpenClaw(Clawdbot/Moltbot)使用教程

openClaw官方仓库:https://github.com/openclaw/openclaw

OpenClaw 是什么?

OpenClaw(原名 Clawdbot,后更名为 Moltbot,现正式命名为 OpenClaw)是一个运行在你本地环境的高权限 AI 智能体。它的核心特性包括:

  • 本地部署:运行在你的服务器或电脑上,数据完全自主可控
  • 多平台支持:支持飞书、WhatsApp、Telegram、Discord、Slack 等主流聊天工具
  • 浏览器控制:可以浏览网页、填写表单、提取数据
  • 系统访问:读写文件、执行 Shell 命令、运行脚本
  • 持久化记忆:记住你的偏好和上下文,成为真正属于你的 AI
  • 插件扩展:支持社区技能插件,甚至可以自己编写插件

无论是邮件管理、日程安排、数据查询还是代码编写,OpenClaw 都能成为你的得力助手。

进入github

创建一个新仓库openclawd

为项目创建codesapce

打开codespace

在命令行查看操作系统和node版本

# 使用官方脚本安装 curl -fsSL https://openclaw.bot/install.sh | bash # 备用方案 pnpm add -g openclaw@latest

执行成功后界面如上图所求,3分钟后

选择yes

选quickStart快速开始

选择Qwen

Error: Qwen OAuth timed out waiting for authorization.

不好意思,失败,重新安装,全部选skip

openclaw status openclaw gateway openclaw gateway --allow-unconfigured #重新安装,再一遍 openclaw onboard --install-daemon #重启 openclaw gateway --port 18789 --verbose 1008报错 openclaw dashboard --no-open openclaw status

都无法访问,直接重装。在端口里可以添加18789进行转发

启动正常,进入界面

接入国产大模型
1 深度求索(DeepSeek)
获取APIkey:https://platform.deepseek.com/api_keys
在apiKey处输入你的apikey即可

openclaw config set 'models.providers.deepseek' --json '{   "baseUrl": "https://api.deepseek.com/v1",   "apiKey": "",   "api": "openai-completions",   "models": [     { "id": "deepseek-chat", "name": "DeepSeek Chat" },     { "id": "deepseek-reasoner", "name": "DeepSeek Reasoner" }   ] }'


 
设置 models.mode 为 merge

openclaw config set models.mode merge


设置默认模型(以deepseek-chat为例)

openclaw models set deepseek/deepseek-chat

查看状态 openclaw status

接下来会提示选择 channel,这里先跳过,后续再添加

继续下面选择 skills,也是选择 No,如下图


继续下面选择 hooks,也是使用空格选择 No,如下图

也可以全部选中,不是自己的机器无所谓

然后等待安装完成,最后会出现以下选项,这里选择 TUI

如果看到 TUI 聊天界面,说明安装成功,可以尝试输入 Hello 进行测试。

然后直接使用 ctrl+c 先关闭,后面我们再来设置

查看服务

可以使用下面的命令来查看

openclaw dashboard

有任何问题欢迎留言讨论

discord账号创建

开始配置OpenClaw

首次登入服务器后,输入并回车运行如下命令开始配置:

openclaw onboard

运行 clawdbot onboard 后,需要通过键盘来完成后续配置动作,关键操作:方向键控制选项,回车表示选择并确认。

企业微信创建webhook

腾讯云部署成功的配置文件。需要wxcom插件的留言

{ "meta": { "lastTouchedVersion": "2026.1.30", "lastTouchedAt": "2026-02-04T15:22:13.503Z" }, "wizard": { "lastRunAt": "2026-02-04T15:22:13.490Z", "lastRunVersion": "2026.1.30", "lastRunCommand": "onboard", "lastRunMode": "local" }, "models": { "mode": "merge", "providers": { "hunyuan": { "baseUrl": "https://api.hunyuan.cloud.tencent.com/v1", "apiKey": "sk-VLWz4jTTsNKdlzWbukXXXX", "api": "openai-completions", "models": [ { "id": "hunyuan-turbos-latest", "name": "混元 TurboS Latest", "reasoning": false, "input": [ "text" ], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 200000, "maxTokens": 8192 } ] } } }, "agents": { "defaults": { "model": { "primary": "hunyuan/hunyuan-turbos-latest" }, "workspace": "/root/.openclaw/workspace", "compaction": { "mode": "safeguard" }, "maxConcurrent": 4, "subagents": { "maxConcurrent": 8 } } }, "messages": { "ackReactionScope": "group-mentions" }, "commands": { "native": "auto", "nativeSkills": "auto" }, "channels": { "wecom": { "enabled": true, "token": "rRCJiQM31gl", "encodingAESKey": "Si7yiho6YHIjBXXXX" } }, "gateway": { "port": 18789, "mode": "local", "bind": "lan", "auth": { "mode": "token", "token": "011b07d4591794cdd776f726e9e06e06bafc2d99ac75116f" }, "tailscale": { "mode": "off", "resetOnExit": false } }, "skills": { "install": { "nodeManager": "npm" } }, "plugins": { "entries": { "feishu": { "enabled": true }, "qqbot": { "enabled": true }, "dingtalk": { "enabled": true }, "wecom": { "enabled": true } }, "installs": { "feishu": { "source": "npm", "spec": "@m1heng-clawd/feishu", "installPath": "/root/.openclaw/extensions/feishu", "version": "0.1.7", "installedAt": "2026-02-04T06:59:58.306Z" }, "qqbot": { "source": "npm", "spec": "https://github.com/sliverp/qqbot.git", "installPath": "/root/.openclaw/extensions/qqbot", "version": "1.3.0", "installedAt": "2026-02-04T07:01:02.258Z" }, "dingtalk": { "source": "archive", "sourcePath": "/tmp/tmp.XgWu7SxhWr/dingtalk.tgz", "installPath": "/root/.openclaw/extensions/dingtalk", "version": "0.2.0", "installedAt": "2026-02-04T07:01:41.777Z" }, "wecom": { "source": "archive", "sourcePath": "/tmp/tmp.lsxanbsiQ5/wecom.tgz", "installPath": "/root/.openclaw/extensions/wecom", "version": "2026.1.30", "installedAt": "2026-02-04T07:02:50.962Z" } } }, "hooks": { "internal": { "enabled": true, "entries": { "session-memory": { "enabled": true } } } } } 

Read more

开源GraphMindStudio工作流引擎:自动化与AI智能体的理想核心

开源GraphMindStudio工作流引擎:自动化与AI智能体的理想核心

引言 GraphMindStudio是一个完善的开源引擎,从前端到算法。整体分为多层架构,前端使用UnityUI,动态计算排布。后端工作流引擎完全模块化解耦,能够实时观测,控制节点的运行,后基于上下文反应式ECS重构,提高运行效率;顶层Json使用占位符架构抽象重复节点逻辑为通用逻辑。 工作流完全基于既定配置运行,极其的稳定。但是被底层逻辑被设计为支持动态更新,即可以在任何逻辑中更新任何运行的工作流。这个技术目前应用在编译逻辑上,如果编译失败了就添加一个节点再重新调用大模型生成一次代码,带着报错。 我认为这样的设计远好于相较于完全依赖于大模型,所有的逻辑都使用大模型完成的完全自主智能体。 工作流的运行结果在模板的基础上可以很大范围的确定,而节点动态更新的能力完全能够实现大模型的自主运行,且是更高级的抽象,支持多步,或者选择已有配置进行运行。 这个框架是一个高效、稳定、强大而完整的逻辑架构。不仅能用于AI代码生成,AI图片生成,可以应用于任何适用于工作流的领域。 publicstaticFunc<object, Task<object>> CompileCheck =async(obj

By Ne0inhk

2026年AI OCR发展前瞻:开源可部署模型实战趋势解析

2026年AI OCR发展前瞻:开源可部署模型实战趋势解析 1. 引言:OCR技术正迎来“平民化”爆发期 你有没有遇到过这种情况:手头有一堆扫描的合同、发票或者产品说明书,想把里面的内容提取出来编辑使用,结果手动敲键盘敲到眼花?传统OCR工具要么收费贵得离谱,要么识别不准还得反复修改。但现在,情况完全不同了。 2026年,AI驱动的OCR技术已经不再是大公司的专属武器。像 cv_resnet18_ocr-detection 这样的开源可部署模型正在快速普及,普通人也能在自己的服务器上一键搭建一个高精度的文字检测系统。更重要的是,这些模型不仅免费,还支持本地运行、数据不出内网、可定制化训练——真正实现了“我的文档我做主”。 本文要讲的,就是一个由开发者“科哥”构建并开源的OCR文字检测WebUI系统。它基于ResNet18骨干网络,集成了检测、批量处理、微调训练和ONNX导出功能,界面友好,部署简单,特别适合中小企业、个人开发者甚至教育场景使用。 我们不聊复杂的算法原理,只聚焦三件事: * 它能做什么? * 怎么快速用起来? * 未来这类模型会怎么发展? 看完这篇,

By Ne0inhk
GitHub热榜----上帝视角玩转未来!MiroFish:基于群体智能的万物预测引擎

GitHub热榜----上帝视角玩转未来!MiroFish:基于群体智能的万物预测引擎

摘要:你是否想过像《黑客帝国》或《西部世界》那样,构建一个平行的数字世界?或者在小说写到瓶颈时,让书中人物自己“活”过来推演结局?今天介绍的开源项目 MiroFish,正是一个基于**多智能体(Multi-Agent)**技术的通用群体智能引擎。它能通过你上传的“种子信息”,自动生成成千上万个具备独立人格和记忆的智能体,在数字沙盘中演化未来。 🚀 前言:当 AI 拥有了“社会属性” 在 ChatGPT 单打独斗的时代,我们问它:“如果发生X,会产生什么后果?”它只能基于训练数据给出概率性的回答。 但在 MiroFish 构建的多智能体系统 (MAS) 中,AI 不再是一个孤独的对话框。MiroFish 让无数个 AI 智能体组成一个社会,它们有记忆、有性格、有社交关系。当你在系统中投入一个变量(比如一条突发新闻),你会看到这些智能体如何反应、

By Ne0inhk
开源AI编程工具对决:Superpowers技能库与OpenSpec规范驱动,谁更胜一筹?

开源AI编程工具对决:Superpowers技能库与OpenSpec规范驱动,谁更胜一筹?

文章概要 在AI辅助编程领域,Obra/superpowers库与Fission-AI/OpenSpec库代表了两种截然不同的技术路径。前者致力于构建可复用的AI编程技能库,后者则倡导以规范(Spec)为核心的驱动开发模式。本文将深入对比两者在核心理念、工作流程及适用场景上的核心差异,探讨它们如何分别解决AI开发中的效率与一致性难题,并分析在项目演进中应如何取舍。 前几天在咖啡店,我无意中听到邻桌两位程序员在激烈争论。一位坚持说:“AI编程助手最大的价值就是帮我快速写出新代码,我需要的是更多‘技能’。”另一位则反驳:“不对,AI最该解决的是代码一致性,我们团队现在最缺的是‘规范’。”这让我立刻想到了最近在GitHub上观察到的两个项目:Obra的superpowers技能库和Fission-AI的OpenSpec规范驱动框架。它们恰好代表了这两种截然不同的思路。 我打开superpowers的仓库,第一印象是它像一个为AI助手精心打造的“瑞士军刀”工具箱。它的核心理念非常直接:将常见的、复杂的编程任务封装成一个个可复用的“技能”(Skill)。这就像给AI安装了一个插件商店,当需要

By Ne0inhk