基于腾讯云云服务器搭建一个Clawdbot,实现Telegram机器人自动回复

基于腾讯云云服务器搭建一个Clawdbot,实现Telegram机器人自动回复

哈咯大家好,这里依然是码农的搬运工!!

从25年开始,全球都开始走向AI,拥抱AI。

最近博主,也就是我,发现一个国外作者,【Peter Steinberger】在本月推出了一个新的智能体【Clawdbot】,首先我们可以先去官网看一下这个东西是什么:Clawdbot 

那么我也是研究了一把,但是这个文档实在是差点把我这个大专生劝退,纯英文,废了九牛二虎之力,我才差不多看懂了。肯定有小伙伴比较好奇,那么文档给你们放出来你们也可以看看:https://docs.molt.bot/start/getting-started

OK!话不多说,那我们开始实操一下:

首先呢,看了一下这个文档,安装环境还是不错的,macOS/Linux、Windows【Powershell/CMD】

而且作者还贴心的给了安装命令,这样就省了好大一部分精力。不需要费劲去git拉取代码编译了。【这里需要注意一点,macos系统得14+,作者只有13的系统,所以是没有办法弄mac的】

当然,如果有小伙伴就是头铁,还是想从git上拉代码,那我也给你贴一下这个文档,你来安装:

https://docs.molt.bot/install#install-method%3A-npm-vs-git-in​​​​​​staller

OK,那我这里就开始演示了哈,这里我采用的是最简单的安装方法,直接命令行在linux上安装。

一、创建服务器

我这里就测试而言,我就付款一台按量计费的CVM来进行测试可以参考下这个配置:

当然这里的配置可以随意调整,可以低一些,可以高一些,这个根据个人来看哈

二、登录服务器

那么这里我们就直接连接

三、安装Clawdbot

安装我们的Clawdbot,命令:curl -fsSL https://molt.bot/install.sh | bash   之后安静的等待就行

到这里会卡一会,耐心等待就可以

四、安装完成

到这一步我们就安装完成啦

五、修改/添加配置

第一个选择Yes,第二个选择快速启动

这个就是目前支持的模型,我们发现里面混进去一个国产的Qwen,其实也是可以配置的啦,因为我的Google模型没有订阅了,所以这里我就用白给的Qwen吧,这里Qwen是通过链接授权访问

稍稍微等一会就可以复制这里的地址在浏览器中进行授权:

这里有点不一样哈,我感觉这里是授权的国际版本的Qwen,因为没有魔法我都进不来这个页面

那么授权完成就是这样的

回到我们的服务器里面你就会发现,授权成功了,这里已经开始让你选择模型了:

我们就保持默认回车进行下一步

这里就是重点了,这也就是Clawdbot的重点之处,他是可以完整的对接一些海外的app的,那这里我就用Telegram的bot来测试一下吧

首先我们要去Telegram中创建一个机器人【@BotFather】按照我这个图中的内容就可以创建啦

可以看到这里有一个HTTP API,这里的内容就是我们需要的,复制下来,回到我们的服务器中

直接回车,你就会发现让你在这里填入bot Token,就是我们刚刚复制的,复制之后回车

这里就开始配置他的技能了,Homebrew这里可以选择不配置,如下:

然后我们下一步,配置一个npm,这里也可以根据个人喜好配置

下面这个就是完整的技能项,可以根据大家的需求来进行配置,这里就不多说了

因为我这里是个人研究,所以好多的本地还有openai模型我都没有配置

如果小伙伴们有需要Hook的,也可以配置一下下面这个,我这里就选择了跳过

到这里的一步,就是说我的Clawdbot开始自己配置网关了,我们等待即可

配置完成之后,会问你如何孵化这个机器人:

我这里不需要本地执行,所以我不需要孵化,这个时候其实可以运行了,只是还没有和我的Telegram打通,打通的话还需要做一步动作

那么这一步,我就选择Do this later,以后再说!!!

到这里,我们就彻底部署完了,我上面说还没有和我的Telegram打通,那么我现在做一个动作就ok:

点击这个蓝色的字,就可以打开我们刚刚创建的机器人

这里机器人说了机器人的所有者必须通过以下命令才可以授权,那这里我们就回到Clawdbot授权一下,命令是【clawdbot pairing approve telegram <code>】这里code替换成Pairing Code,然后我们回车命令,会发现出问题了

什么情况,提示我找不到Clawdbot,Why,What。

不用着急,还记得我们之前Clawdbot配置了网关了吗,这里需要重启一下,我这里比较暴力,直接重启机器。

那我们等待一两分钟,重启成功之后,我们再次输入上次的命令,授权我们的机器人:

命令是【clawdbot pairing approve telegram <code>】

这样就代表链接成功啦,我们去试试

成功啦,这样我们的Clawdbot就可以正常运行了。

六、邪修的办法

腾讯云在27号中午的时候发布了LH+Clawdbot的架构,完整的copy了一个镜像出来,购买轻量要用服务器就可以直接使用这个镜像,还有配套的官方文档:

官方文档地址:玩转Lighthouse|Clawdbot一键秒级部署指南

所以,也可以直接参考这个文档购买轻量服务器进行使用。

为什么做这样的宣传呢,因为我是一家代理商的员工,哈哈,欢迎大家来找我联系,不管是IAAS、SAAS、PAAS,我都可以给大家一些小小的福利!!!

大家有什么问题也可以留言在评论区,看到我一定会及时回复哒!

Read more

本地多模型切换利器——Llama-Swap全攻略

本地多模型切换利器——Llama-Swap全攻略

运行多个大语言模型(LLM)非常有用: 无论是用于比较模型输出、设置备用方案(当一个模型失败时自动切换)、还是实现行为定制(例如一个模型专注写代码,另一个模型专注技术写作),实践中我们经常以这种方式使用 LLM。 一些应用(如 poe.com)已经提供了多模型运行的平台。但如果你希望完全在本地运行、多省 API 成本,并保证数据隐私,情况就会复杂许多。 问题在于:本地设置通常意味着要处理多个端口、运行不同进程,并且手动切换,不够理想。 这正是 Llama-Swap 要解决的痛点。它是一个超轻量的开源代理服务(仅需一个二进制文件),能够让你轻松在多个本地 LLM 之间切换。简单来说,它会在本地监听 OpenAI 风格的 API 请求,并根据请求的模型名称,自动启动或停止对应的模型服务。客户端无需感知底层切换,使用体验完全透明。 📌 Llama-Swap 工作原理 概念上,Llama-Swap 就像一个智能路由器,

在Windows11利用llama.cpp调用Qwen3.5量化模型测试

1.下载llama.cpp二进制文件 访问 https://github.com/ggml-org/llama.cpp/releases 或者 https://bgithub.xyz/ggml-org/llama.cpp/releases 选择适合自己平台的。我没有独立显卡,所以选择CPU版本 https://bgithub.xyz/ggml-org/llama.cpp/releases/download/b8192/llama-b8192-bin-win-cpu-x64.zip 解压到\d\llama8\目录。 2.下载量化模型 按照 章北海mlpy 公众号:Ai学习的老章~ID:mindszhang666 写的知乎文章Qwen3.5 0.8B/2B/

AI Copilot代码推荐出错率高?掌握这8项调试技巧立竿见影

第一章:AI Copilot代码推荐出错率高?先理解根本原因 AI驱动的代码助手如GitHub Copilot在提升开发效率方面展现出巨大潜力,但其推荐代码的准确性常受质疑。理解推荐出错的根本原因,是合理使用并规避风险的前提。 模型训练数据的局限性 Copilot的核心基于大规模代码语料库训练而成,但这些数据多来自公开仓库,质量参差不齐。大量包含错误、过时或非标准实践的代码被纳入训练集,导致模型可能学习并复现这些问题。 * 开源项目中常见未修复的bug代码 * 不同编程风格混杂,缺乏统一规范 * 某些语言或框架的样本稀疏,导致推理偏差 上下文感知能力不足 尽管模型能识别局部语法模式,但在理解项目整体架构、业务逻辑和变量语义方面存在局限。例如,在以下场景中容易出错: // 用户正在编写用户权限校验函数 function checkPermission(user, resource) { return user.role === 'admin'; // Copilot可能忽略资源类型限制 } 该代码看似合理,但若业务要求根据resource.type动态判断,则推

ClawdBot零基础上手:非技术人员也能5分钟搭好Telegram翻译机器人

ClawdBot零基础上手:非技术人员也能5分钟搭好Telegram翻译机器人 你是不是也遇到过这些场景? 群里突然刷出一串日文商品链接,没人能看懂; 海外客户发来一段语音询价,转文字再翻译要开三个App; 朋友甩来一张手写菜单照片,想立刻知道“sashimi”到底是什么鱼…… 别再复制粘贴、反复切换网页翻译器了。今天带你用一台普通笔记本,5分钟内亲手部署一个真正「开箱即用」的 Telegram 翻译机器人——它不依赖云端API、不上传隐私、不收订阅费,语音、图片、文字、汇率、天气全都能当场搞定。 这不是概念演示,也不是Demo项目。它叫 MoltBot,一个2025年开源、MIT协议、GitHub星标超2000的轻量级多模态Telegram助手。而它的底层运行环境,正是我们今天要上手的 ClawdBot —— 一个专为非技术人员设计的本地AI网关平台。 ClawdBot 不是模型,也不是大语言模型本身。它更像一个「智能插座」:你把模型(比如Qwen3-4B)插进去,它就自动帮你接通电源、分配电流、保护电路,最后只留一个开关给你—