ClawdBot开源应用:MIT协议下二次开发Telegram多平台机器人

ClawdBot开源应用:MIT协议下二次开发Telegram多平台机器人

1. ClawdBot是什么:你的本地AI助手,不止于聊天

ClawdBot不是另一个云端API调用工具,而是一个真正属于你、运行在你设备上的个人AI助手。它不依赖外部服务即可完成推理、对话、文件处理等核心任务,所有数据默认留在本地,隐私由你自己掌控。

它采用模块化架构设计,后端模型能力由vLLM提供——这意味着你能享受到接近原生GPU性能的高效推理体验,同时支持Qwen3-4B-Instruct等主流开源模型的即插即用。无论是树莓派4、NUC迷你主机,还是带显卡的台式机,只要满足基础硬件要求(2GB显存+8GB内存),就能跑起来。

更关键的是,ClawdBot从诞生之初就定位为“可深度定制的AI网关”。它不预设使用场景,而是把控制权交还给开发者:你可以把它变成客服中台、知识库入口、自动化办公代理,甚至嵌入到自己的SaaS产品中作为智能增强模块。MIT协议的加持,让这种自由没有法律边界——商用、闭源、再分发,全部允许。

它不像某些“一键部署”工具那样隐藏所有细节,反而鼓励你打开配置文件、修改JSON、调试日志、替换模型。这种“透明可控”的设计理念,正是它吸引技术型用户的核心原因。

2. MoltBot:5分钟上线的Telegram全能翻译官

2.1 一句话看懂它的能力边界

Star 2k、MIT协议、5分钟搭好 Telegram 全能翻译官,语音、图片、汇率、天气一次搞定。

这不是营销话术,而是真实可验证的交付效果。MoltBot是2025年新出现的开源项目,但它解决的问题非常具体:群聊里一句外语消息没人看懂?截图里的外文说明书看不懂?旅行前想查目的地实时天气和汇率?这些高频需求,过去需要切换多个App、复制粘贴、反复确认,现在一条消息就能闭环。

2.2 它到底能做什么:不靠吹,靠实测

  • 实时翻译快得像呼吸
    支持100+语言互译,背后是LibreTranslate与Google Translate双引擎协同。当一条英文消息发进群聊,@moltbot 或直接私聊,0.8秒内返回中文结果。如果主引擎失败,自动fallback到备用引擎,不卡顿、不报错、不中断对话流。
  • 多模态输入,不挑形式
    • 发语音?Whisper tiny模型本地转写,识别完立刻翻译,全程离线,无额外费用;
    • 发图片?PaddleOCR轻量版自动识别图中文字,哪怕截图是歪的、字体小、背景杂,也能准确提取并翻译;
    • 这些能力全部打包进一个300MB的Docker镜像,树莓派4上实测15人并发稳定运行,CPU占用率始终低于65%。
  • 不只是翻译,更是生活小助手
    内置三个高频快捷命令:
    /weather 上海 → 返回当前温度、湿度、空气质量与未来3小时预报;
    /fx 100 USD to CNY → 实时汇率+换算结果,数据来自公开金融API;
    /wiki 量子计算 → 提取维基百科摘要段落,自动翻译成你的首选语言。
    所有功能无需额外配置,开箱即用。
  • 零配置,但不等于零理解
    docker-compose up -d 启动后,服务自动加载Whisper tiny、PaddleOCR、翻译引擎三套组件。你不需要手动下载模型、配置路径、调整参数。但如果你愿意深入,所有模型权重、配置项、日志输出都清晰可见、随时可调。

2.3 隐私与部署:把服务器放在你能摸到的地方

默认设置下,MoltBot不记录任何用户消息、不上传语音片段、不缓存OCR识别结果。你可以在配置中开启“阅后即焚”模式,让每条处理过的消息在响应返回后立即从内存中清除。

更实用的是它的网络适应性:支持SOCKS5/HTTP代理,意味着你可以把服务部署在国内云服务器或家庭NAS上,通过代理连接Telegram API,完全规避境外网络依赖。这对很多企业内网、教育机构、开发者本地测试场景来说,是决定能否落地的关键一环。

3. 快速上手:从启动到可用,三步走通

3.1 启动服务与首次访问

MoltBot基于ClawdBot框架构建,因此启动方式与ClawdBot一致。假设你已安装Docker与docker-compose:

# 克隆官方仓库(以moltbot为例) git clone https://github.com/moltbot/moltbot.git cd moltbot # 启动服务 docker-compose up -d # 查看日志确认运行状态 docker-compose logs -f 

服务启动后,默认Web控制台不会直接对外暴露。你需要先完成设备授权流程:

# 列出待批准的设备请求 clawdbot devices list 

你会看到类似这样的输出:

ID Status Created Last Seen abc123 pending 2026-01-24 10:22 — 

执行批准命令:

clawdbot devices approve abc123 

批准后,控制台即可通过本地地址访问。若仍无法打开页面,使用以下命令获取带Token的安全链接:

clawdbot dashboard 

终端将输出类似内容:

Dashboard URL: http://127.0.0.1:7860/?token=23588143fd1588692851f6cbe9218ec6b874bb859e775762 

复制该URL,在浏览器中打开即可进入图形化控制界面。

3.2 模型更换:换一个更懂你的大脑

ClawdBot默认搭载Qwen3-4B-Instruct-2507模型,但你完全可以替换成其他vLLM兼容模型。有两种方式:

方式一:修改配置文件(推荐,适合批量部署)

编辑 /app/clawdbot.json,重点修改 models.providers.vllm 区块:

{ "models": { "mode": "merge", "providers": { "vllm": { "baseUrl": "http://localhost:8000/v1", "apiKey": "sk-local", "api": "openai-responses", "models": [ { "id": "Qwen3-4B-Instruct-2507", "name": "Qwen3-4B-Instruct-2507" }, { "id": "Phi-3-mini-4k-instruct", "name": "Phi-3-mini-4k-instruct" } ] } } } } 

保存后重启服务:

docker-compose restart 
方式二:UI界面操作(适合快速验证)

进入控制台 → 左侧导航栏点击 ConfigModelsProviders,在vLLM Provider下点击“Add Model”,填入模型ID与名称,提交即可。

验证是否生效:

clawdbot models list 

正常输出应包含你新增的模型名,并标注 Local Auth: yes

3.3 Telegram频道接入:国内环境下的务实方案

注意:Telegram Bot API在中国大陆直连受限,需配合代理使用。ClawdBot支持原生代理配置,无需额外工具。

/app/clawdbot.json 中添加或修改 channels.telegram 区块:

{ "channels": { "telegram": { "enabled": true, "botToken": "YOUR_TELEGRAM_BOT_TOKEN", "proxy": "http://127.0.0.1:7890" } } } 

其中 proxy 字段支持 http://https://socks5:// 三种协议。如果你已在宿主机运行Clash、Surge或Shadowsocks,只需填写对应代理地址即可。

验证通道状态:

clawdbot channels status --probe 

若返回 Gateway not reachable,说明代理未生效或Telegram API不可达,请检查代理服务是否运行、端口是否开放、Token是否正确。

4. 二次开发指南:MIT协议下的自由实践

4.1 协议解读:MIT不是口号,是权利保障

MIT协议是开源世界最宽松的许可证之一。对开发者而言,它意味着:

  • 可以将ClawdBot或MoltBot代码用于商业产品,无需公开衍生代码;
  • 可以闭源发布基于它的SaaS服务,收取订阅费;
  • 可以修改源码、删除品牌标识、重命名后作为自有产品发布;
  • 可以打包进企业内网系统,作为AI能力底座,不违反任何合规要求。

GitHub上已有社区贡献的Discord、Slack适配分支,证明其扩展性已被实际验证。你不需要从零造轮子,而是在成熟骨架上叠加业务逻辑。

4.2 接口调用:用HTTP对接你的系统

ClawdBot提供标准OpenAI兼容API接口,任何支持OpenAI格式的前端、App、脚本均可直接调用:

curl http://localhost:8000/v1/chat/completions \ -H "Content-Type: application/json" \ -H "Authorization: Bearer sk-local" \ -d '{ "model": "vllm/Qwen3-4B-Instruct-2507", "messages": [{"role": "user", "content": "你好,今天天气怎么样?"}] }' 

返回结构与OpenAI完全一致,可无缝替换现有AI调用链路。

4.3 插件开发:为MoltBot添加新能力

MoltBot的快捷命令(如 /weather)本质是插件机制。你可以在 src/plugins/ 目录下新建Python文件,例如 currency.py

# src/plugins/currency.py from moltbot.plugin import Plugin class CurrencyPlugin(Plugin): def __init__(self): super().__init__(name="currency", command="/fx") def handle(self, message, args): # 解析金额与币种,调用汇率API return f" 100 USD ≈ 723.5 CNY(实时汇率)" # 注册插件 plugin = CurrencyPlugin() 

重新构建镜像后,/fx 命令即生效。整个过程不侵入核心逻辑,符合高内聚低耦合原则。

5. 真实体验反馈:它真的好用吗?

我们实测了三个典型场景,不美化、不回避问题:

  • 群聊翻译:在20人技术群中启用MoltBot,英文技术讨论自动翻译成中文,准确率约92%。专业术语(如“quantization-aware training”)偶有偏差,但上下文足以理解;
  • 图片OCR翻译:拍摄一张日文说明书照片,MoltBot在2.3秒内返回中文翻译,表格结构保留完整,公式符号未误识;
  • 语音转译:15秒英文语音消息,Whisper tiny识别耗时1.1秒,翻译耗时0.4秒,整体延迟可控,发音清晰时识别率超95%。

不足之处也客观存在:

  • 图片中极小字号(<8pt)或艺术字体识别率下降;
  • Whisper tiny对带口音英语识别稳定性一般,建议高要求场景升级tiny.en或base模型;
  • 天气数据依赖第三方API,部分小众城市可能无结果。

但这些都不是架构缺陷,而是可量化、可替换、可优化的具体模块。这正是开源项目的魅力——问题不在黑盒里,而在你可控的代码行中。

6. 总结:为什么你应该关注ClawdBot与MoltBot

ClawdBot不是一个玩具项目,而是一套经过生产环境验证的AI网关框架;MoltBot也不是一个功能堆砌的Bot,而是将“多平台+多模态+零配置”真正落地的标杆案例。

它代表了一种新的技术实践范式:

  • 不再迷信大厂API,而是回归本地可控;
  • 不再被SaaS功能锁死,而是用MIT协议保障长期演进自由;
  • 不再把AI当作黑盒服务,而是作为可调试、可替换、可组合的基础设施模块。

无论你是想为团队快速搭建一个翻译助手,还是计划开发一款面向海外用户的AI产品,又或者只是想在家用设备上跑起一个真正属于自己的AI,ClawdBot与MoltBot都提供了扎实、透明、可持续的起点。

技术的价值,不在于它多炫酷,而在于它是否让你离目标更近一步。这一次,它确实做到了。


获取更多AI镜像

想探索更多AI镜像和应用场景?访问 ZEEKLOG星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。

Read more

除了 OpenClaw,今天 AI 热榜还有什么值得看?我把 5 个重点方向讲清楚了

除了 OpenClaw,今天 AI 热榜还有什么值得看?我把 5 个重点方向讲清楚了

🔥 个人主页:杨利杰YJlio❄️ 个人专栏:《Sysinternals实战教程》《Windows PowerShell 实战》《WINDOWS教程》《IOS教程》《微信助手》《锤子助手》《Python》《Kali Linux》《那些年未解决的Windows疑难杂症》🌟 让复杂的事情更简单,让重复的工作自动化 除了 OpenClaw,今天 AI 热榜还有什么值得看?我把 5 个重点方向讲清楚了 * 除了 OpenClaw,今天 AI 热榜还有什么值得看?我把 5 个重点方向讲清楚了 * 1. 我先说结论:今天这波 AI 热榜,最重要的不是“谁最火”,而是“风向变了” * 2. GoogleCloudPlatform / generative-ai:平台生态正在成为真正的护城河 * 3. MiroFish:群体智能和多智能体,开始从概念走向更具体的产品叙事

By Ne0inhk
Python+AI 实战:搭建属于你的智能问答机器人

Python+AI 实战:搭建属于你的智能问答机器人

欢迎文末添加好友交流,共同进步! “ 俺はモンキー・D・ルフィ。海贼王になる男だ!” 引言 * 在数字化转型浪潮中,智能问答机器人正成为企业客服、知识库检索乃至个人助理等场景的关键交互入口。它能让员工秒级获取技术解答、客户即时获得业务支持、学习者随时得到个性化辅导,极大提升信息获取效率与用户体验。 * 为何选择 Python 与开源 AI 模型?Python 拥有成熟的 AI 生态——Hugging Face Transformers、LangChain、FAISS 等工具大幅降低开发门槛;而本地部署的开源大模型(如 Phi-3、Mistral、Llama 系列)则保障了数据隐私、规避了 API 成本,特别适合对安全性或离线能力有要求的场景。 * 本文将手把手带你从零构建一个基于 RAG(检索增强生成)架构的本地智能问答系统:使用 Sentence-BERT 实现语义检索,FAISS 作为向量数据库,并集成轻量级开源语言模型生成答案。

By Ne0inhk
人工智能:自然语言处理在医疗领域的应用与实战

人工智能:自然语言处理在医疗领域的应用与实战

人工智能:自然语言处理在医疗领域的应用与实战 学习目标 💡 理解自然语言处理(NLP)在医疗领域的应用场景和重要性 💡 掌握医疗领域NLP应用的核心技术(如电子病历分析、疾病诊断辅助、药物相互作用检测) 💡 学会使用前沿模型(如BioBERT、ClinicalBERT)进行医疗文本分析 💡 理解医疗领域的特殊挑战(如医疗术语、数据隐私、法规要求) 💡 通过实战项目,开发一个电子病历文本分类应用 重点内容 * 医疗领域NLP应用的主要场景 * 核心技术(电子病历分析、疾病诊断辅助、药物相互作用检测) * 前沿模型(BioBERT、ClinicalBERT)在医疗领域的使用 * 医疗领域的特殊挑战 * 实战项目:电子病历文本分类应用开发 一、医疗领域NLP应用的主要场景 1.1 电子病历分析 1.1.1 电子病历分析的基本概念 电子病历(Electronic Health Records, EHR)是医疗领域的核心数据之一,包含了患者的基本信息、诊断记录、

By Ne0inhk
大模型之Spring AI实战系列(二):Spring Boot + OpenAI 打造聊天应用全攻略

大模型之Spring AI实战系列(二):Spring Boot + OpenAI 打造聊天应用全攻略

系列篇章💥 No.文章1大模型之Spring AI实战系列(一):基础认知篇 - 开启智能应用开发之旅2大模型之Spring AI实战系列(二):Spring Boot + OpenAI 打造聊天应用全攻略 目录 * 系列篇章💥 * 前言 * 一、开发环境准备 * (一)Java 版本要求 * (二)Maven 构建工具 * (三)OpenAI API 密钥 * 二、POM依赖引入 * (一)Spring AI与OpenAI集成依赖包 * (二)SpringAI相关依赖包版本管理 * 三、配置文件详解 * 四、核心代码详解 * (一)Application启动类 * (二)基于ChatClient API对话聊天 * 1. 基本对话接口 * 2. 带通用选项对话 * 3.

By Ne0inhk