在github codespaces部署开源个人智能体OpenClaw(Clawdbot/Moltbot)使用教程

openClaw官方仓库:https://github.com/openclaw/openclaw

OpenClaw 是什么?

OpenClaw(原名 Clawdbot,后更名为 Moltbot,现正式命名为 OpenClaw)是一个运行在你本地环境的高权限 AI 智能体。它的核心特性包括:

  • 本地部署:运行在你的服务器或电脑上,数据完全自主可控
  • 多平台支持:支持飞书、WhatsApp、Telegram、Discord、Slack 等主流聊天工具
  • 浏览器控制:可以浏览网页、填写表单、提取数据
  • 系统访问:读写文件、执行 Shell 命令、运行脚本
  • 持久化记忆:记住你的偏好和上下文,成为真正属于你的 AI
  • 插件扩展:支持社区技能插件,甚至可以自己编写插件

无论是邮件管理、日程安排、数据查询还是代码编写,OpenClaw 都能成为你的得力助手。

进入github

创建一个新仓库openclawd

为项目创建codesapce

打开codespace

在命令行查看操作系统和node版本

# 使用官方脚本安装 curl -fsSL https://openclaw.bot/install.sh | bash # 备用方案 pnpm add -g openclaw@latest

执行成功后界面如上图所求,3分钟后

选择yes

选quickStart快速开始

选择Qwen

Error: Qwen OAuth timed out waiting for authorization.

不好意思,失败,重新安装,全部选skip

openclaw status openclaw gateway openclaw gateway --allow-unconfigured #重新安装,再一遍 openclaw onboard --install-daemon #重启 openclaw gateway --port 18789 --verbose 1008报错 openclaw dashboard --no-open openclaw status

都无法访问,直接重装。在端口里可以添加18789进行转发

启动正常,进入界面

接入国产大模型
1 深度求索(DeepSeek)
获取APIkey:https://platform.deepseek.com/api_keys
在apiKey处输入你的apikey即可

openclaw config set 'models.providers.deepseek' --json '{   "baseUrl": "https://api.deepseek.com/v1",   "apiKey": "",   "api": "openai-completions",   "models": [     { "id": "deepseek-chat", "name": "DeepSeek Chat" },     { "id": "deepseek-reasoner", "name": "DeepSeek Reasoner" }   ] }'


 
设置 models.mode 为 merge

openclaw config set models.mode merge


设置默认模型(以deepseek-chat为例)

openclaw models set deepseek/deepseek-chat

查看状态 openclaw status

接下来会提示选择 channel,这里先跳过,后续再添加

继续下面选择 skills,也是选择 No,如下图


继续下面选择 hooks,也是使用空格选择 No,如下图

也可以全部选中,不是自己的机器无所谓

然后等待安装完成,最后会出现以下选项,这里选择 TUI

如果看到 TUI 聊天界面,说明安装成功,可以尝试输入 Hello 进行测试。

然后直接使用 ctrl+c 先关闭,后面我们再来设置

查看服务

可以使用下面的命令来查看

openclaw dashboard

有任何问题欢迎留言讨论

discord账号创建

开始配置OpenClaw

首次登入服务器后,输入并回车运行如下命令开始配置:

openclaw onboard

运行 clawdbot onboard 后,需要通过键盘来完成后续配置动作,关键操作:方向键控制选项,回车表示选择并确认。

企业微信创建webhook

腾讯云部署成功的配置文件。需要wxcom插件的留言

{ "meta": { "lastTouchedVersion": "2026.1.30", "lastTouchedAt": "2026-02-04T15:22:13.503Z" }, "wizard": { "lastRunAt": "2026-02-04T15:22:13.490Z", "lastRunVersion": "2026.1.30", "lastRunCommand": "onboard", "lastRunMode": "local" }, "models": { "mode": "merge", "providers": { "hunyuan": { "baseUrl": "https://api.hunyuan.cloud.tencent.com/v1", "apiKey": "sk-VLWz4jTTsNKdlzWbukXXXX", "api": "openai-completions", "models": [ { "id": "hunyuan-turbos-latest", "name": "混元 TurboS Latest", "reasoning": false, "input": [ "text" ], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 200000, "maxTokens": 8192 } ] } } }, "agents": { "defaults": { "model": { "primary": "hunyuan/hunyuan-turbos-latest" }, "workspace": "/root/.openclaw/workspace", "compaction": { "mode": "safeguard" }, "maxConcurrent": 4, "subagents": { "maxConcurrent": 8 } } }, "messages": { "ackReactionScope": "group-mentions" }, "commands": { "native": "auto", "nativeSkills": "auto" }, "channels": { "wecom": { "enabled": true, "token": "rRCJiQM31gl", "encodingAESKey": "Si7yiho6YHIjBXXXX" } }, "gateway": { "port": 18789, "mode": "local", "bind": "lan", "auth": { "mode": "token", "token": "011b07d4591794cdd776f726e9e06e06bafc2d99ac75116f" }, "tailscale": { "mode": "off", "resetOnExit": false } }, "skills": { "install": { "nodeManager": "npm" } }, "plugins": { "entries": { "feishu": { "enabled": true }, "qqbot": { "enabled": true }, "dingtalk": { "enabled": true }, "wecom": { "enabled": true } }, "installs": { "feishu": { "source": "npm", "spec": "@m1heng-clawd/feishu", "installPath": "/root/.openclaw/extensions/feishu", "version": "0.1.7", "installedAt": "2026-02-04T06:59:58.306Z" }, "qqbot": { "source": "npm", "spec": "https://github.com/sliverp/qqbot.git", "installPath": "/root/.openclaw/extensions/qqbot", "version": "1.3.0", "installedAt": "2026-02-04T07:01:02.258Z" }, "dingtalk": { "source": "archive", "sourcePath": "/tmp/tmp.XgWu7SxhWr/dingtalk.tgz", "installPath": "/root/.openclaw/extensions/dingtalk", "version": "0.2.0", "installedAt": "2026-02-04T07:01:41.777Z" }, "wecom": { "source": "archive", "sourcePath": "/tmp/tmp.lsxanbsiQ5/wecom.tgz", "installPath": "/root/.openclaw/extensions/wecom", "version": "2026.1.30", "installedAt": "2026-02-04T07:02:50.962Z" } } }, "hooks": { "internal": { "enabled": true, "entries": { "session-memory": { "enabled": true } } } } } 

Read more

【Linux基础开发工具 (七)】Git 版本管理全流程与 GDB / CGDB 调试技巧

【Linux基础开发工具 (七)】Git 版本管理全流程与 GDB / CGDB 调试技巧

🎬 个人主页:艾莉丝努力练剑 ❄专栏传送门:《C语言》《数据结构与算法》《C/C++干货分享&学习过程记录》 《Linux操作系统编程详解》《笔试/面试常见算法:从基础到进阶》《Python干货分享》 ⭐️为天地立心,为生民立命,为往圣继绝学,为万世开太平 🎬 艾莉丝的简介: 文章目录 * 前情提示 * 1 Git的文件冲突:两人改同一个文件造成远程和本地仓库不同步 * 2 工作区 * 3 三板斧 * 4 调试的本质是什么 * 6 ~> Git版本控制器 * 前言(看过Git专栏的uu可以跳过这部分啦) * 6.1 入题:小故事 * 6.2 版本控制器 * 6.3 Git的历史发展 * 6.4 Git的安装 * 6.

By Ne0inhk

linux如何下载github的一个项目

文章目录 * 前提条件 * 下载GitHub项目 * 其他方法 在Linux系统中,下载GitHub上的项目通常通过git命令来完成。以下是具体步骤: 前提条件 确保你的系统上已经安装了git。你可以通过以下命令检查是否已安装git: git --version 如果未安装,可以使用包管理器进行安装。例如,在基于Debian的系统(如Ubuntu)上,可以使用如下命令安装: sudoapt-get update sudoapt-getinstallgit 对于基于Red Hat的系统(如Fedora),可以使用: sudo dnf installgit 下载GitHub项目 1. 找到项目的Git URL:在你感兴趣的GitHub项目页面上,点击绿色的“Code”按钮,然后复制HTTPS或SSH地址。 2. 克隆仓库到本地:打开终端并输入git clone命令,后面跟上刚才复制的URL。例如: 3. 如果使用HTTPS方式: git clone https://github.

By Ne0inhk
灵活开源低代码平台——Microi吾码(一)

灵活开源低代码平台——Microi吾码(一)

* 开源低代码平台-Microi吾码-平台简介 * 1. 什么是低代码平台? * 2. 它能做什么? * 3. 它的优点是什么? * 平台预览图 * 平台亮点 * 版本区别 * 成功案例 * 源码目录说明 * Microi吾码 - 系列文档 开源低代码平台-Microi吾码-平台简介 技术框架:.NET8 + Redis + MySql/SqlServer/Oracle + Vue2/3 + Element-UI/Element-Plus平台始于2014年(基于Avalon.js),2018年使用Vue重构,于2024年10月29日开源Vue3试用地址(仅查询):https://microi.netVue2传统界面试用地址(可操作数据):https://demo.microi.net/Gitee开源地址:https://gitee.com/ITdos/microi.netGitCode开源地址:https://gitcode.com/microi-net/

By Ne0inhk
2026全球开源大模型TOP10榜单+主流模型深度解析

2026全球开源大模型TOP10榜单+主流模型深度解析

【前言】2026年,开源大模型迎来爆发式发展,中国力量持续领跑,MoE架构成为绝对主流,模型发展从“通用全能”向“场景专精”深度转型。本文结合Hugging Face最新榜单及权威机构评估,整理出2026年全球开源大模型TOP10排行榜,深度解析主流模型的技术亮点、性能表现与适用场景,并从技术架构、训练数据、指令遵循、微调能力四大维度,全面评估当前开源大模型的技术发展水平,为开发者选型、企业落地提供参考。 一、2026全球开源大模型TOP10排行榜 本次榜单基于下载量、LMSYS盲测、工程化落地成本、商用友好度、社区活跃度五大核心维度,结合Hugging Face最新发布的开源大模型榜单及多个权威评测机构综合评估整理而成,覆盖全球主流开源模型,精准反映当前开源大模型的综合竞争力。 排名 模型名称 机构 架构 核心参数 主打能力 适用场景 1 Qwen 3.5 阿里 MoE 397B 总 / 17B 激活

By Ne0inhk