ClawdBot开源应用:MIT协议下二次开发Telegram多平台机器人
ClawdBot开源应用:MIT协议下二次开发Telegram多平台机器人
1. ClawdBot是什么:你的本地AI助手,不止于聊天
ClawdBot不是另一个云端API调用工具,而是一个真正属于你、运行在你设备上的个人AI助手。它不依赖外部服务即可完成推理、对话、文件处理等核心任务,所有数据默认留在本地,隐私由你自己掌控。
它采用模块化架构设计,后端模型能力由vLLM提供——这意味着你能享受到接近原生GPU性能的高效推理体验,同时支持Qwen3-4B-Instruct等主流开源模型的即插即用。无论是树莓派4、NUC迷你主机,还是带显卡的台式机,只要满足基础硬件要求(2GB显存+8GB内存),就能跑起来。
更关键的是,ClawdBot从诞生之初就定位为“可深度定制的AI网关”。它不预设使用场景,而是把控制权交还给开发者:你可以把它变成客服中台、知识库入口、自动化办公代理,甚至嵌入到自己的SaaS产品中作为智能增强模块。MIT协议的加持,让这种自由没有法律边界——商用、闭源、再分发,全部允许。
它不像某些“一键部署”工具那样隐藏所有细节,反而鼓励你打开配置文件、修改JSON、调试日志、替换模型。这种“透明可控”的设计理念,正是它吸引技术型用户的核心原因。
2. MoltBot:5分钟上线的Telegram全能翻译官
2.1 一句话看懂它的能力边界
Star 2k、MIT协议、5分钟搭好 Telegram 全能翻译官,语音、图片、汇率、天气一次搞定。
这不是营销话术,而是真实可验证的交付效果。MoltBot是2025年新出现的开源项目,但它解决的问题非常具体:群聊里一句外语消息没人看懂?截图里的外文说明书看不懂?旅行前想查目的地实时天气和汇率?这些高频需求,过去需要切换多个App、复制粘贴、反复确认,现在一条消息就能闭环。
2.2 它到底能做什么:不靠吹,靠实测
- 实时翻译快得像呼吸
支持100+语言互译,背后是LibreTranslate与Google Translate双引擎协同。当一条英文消息发进群聊,@moltbot 或直接私聊,0.8秒内返回中文结果。如果主引擎失败,自动fallback到备用引擎,不卡顿、不报错、不中断对话流。 - 多模态输入,不挑形式
- 发语音?Whisper tiny模型本地转写,识别完立刻翻译,全程离线,无额外费用;
- 发图片?PaddleOCR轻量版自动识别图中文字,哪怕截图是歪的、字体小、背景杂,也能准确提取并翻译;
- 这些能力全部打包进一个300MB的Docker镜像,树莓派4上实测15人并发稳定运行,CPU占用率始终低于65%。
- 不只是翻译,更是生活小助手
内置三个高频快捷命令:/weather 上海→ 返回当前温度、湿度、空气质量与未来3小时预报;/fx 100 USD to CNY→ 实时汇率+换算结果,数据来自公开金融API;/wiki 量子计算→ 提取维基百科摘要段落,自动翻译成你的首选语言。
所有功能无需额外配置,开箱即用。 - 零配置,但不等于零理解
docker-compose up -d启动后,服务自动加载Whisper tiny、PaddleOCR、翻译引擎三套组件。你不需要手动下载模型、配置路径、调整参数。但如果你愿意深入,所有模型权重、配置项、日志输出都清晰可见、随时可调。
2.3 隐私与部署:把服务器放在你能摸到的地方
默认设置下,MoltBot不记录任何用户消息、不上传语音片段、不缓存OCR识别结果。你可以在配置中开启“阅后即焚”模式,让每条处理过的消息在响应返回后立即从内存中清除。
更实用的是它的网络适应性:支持SOCKS5/HTTP代理,意味着你可以把服务部署在国内云服务器或家庭NAS上,通过代理连接Telegram API,完全规避境外网络依赖。这对很多企业内网、教育机构、开发者本地测试场景来说,是决定能否落地的关键一环。
3. 快速上手:从启动到可用,三步走通
3.1 启动服务与首次访问
MoltBot基于ClawdBot框架构建,因此启动方式与ClawdBot一致。假设你已安装Docker与docker-compose:
# 克隆官方仓库(以moltbot为例) git clone https://github.com/moltbot/moltbot.git cd moltbot # 启动服务 docker-compose up -d # 查看日志确认运行状态 docker-compose logs -f 服务启动后,默认Web控制台不会直接对外暴露。你需要先完成设备授权流程:
# 列出待批准的设备请求 clawdbot devices list 你会看到类似这样的输出:
ID Status Created Last Seen abc123 pending 2026-01-24 10:22 — 执行批准命令:
clawdbot devices approve abc123 批准后,控制台即可通过本地地址访问。若仍无法打开页面,使用以下命令获取带Token的安全链接:
clawdbot dashboard 终端将输出类似内容:
Dashboard URL: http://127.0.0.1:7860/?token=23588143fd1588692851f6cbe9218ec6b874bb859e775762 复制该URL,在浏览器中打开即可进入图形化控制界面。
3.2 模型更换:换一个更懂你的大脑
ClawdBot默认搭载Qwen3-4B-Instruct-2507模型,但你完全可以替换成其他vLLM兼容模型。有两种方式:
方式一:修改配置文件(推荐,适合批量部署)
编辑 /app/clawdbot.json,重点修改 models.providers.vllm 区块:
{ "models": { "mode": "merge", "providers": { "vllm": { "baseUrl": "http://localhost:8000/v1", "apiKey": "sk-local", "api": "openai-responses", "models": [ { "id": "Qwen3-4B-Instruct-2507", "name": "Qwen3-4B-Instruct-2507" }, { "id": "Phi-3-mini-4k-instruct", "name": "Phi-3-mini-4k-instruct" } ] } } } } 保存后重启服务:
docker-compose restart 方式二:UI界面操作(适合快速验证)
进入控制台 → 左侧导航栏点击 Config → Models → Providers,在vLLM Provider下点击“Add Model”,填入模型ID与名称,提交即可。
验证是否生效:
clawdbot models list 正常输出应包含你新增的模型名,并标注 Local Auth: yes。
3.3 Telegram频道接入:国内环境下的务实方案
注意:Telegram Bot API在中国大陆直连受限,需配合代理使用。ClawdBot支持原生代理配置,无需额外工具。
在 /app/clawdbot.json 中添加或修改 channels.telegram 区块:
{ "channels": { "telegram": { "enabled": true, "botToken": "YOUR_TELEGRAM_BOT_TOKEN", "proxy": "http://127.0.0.1:7890" } } } 其中 proxy 字段支持 http://、https://、socks5:// 三种协议。如果你已在宿主机运行Clash、Surge或Shadowsocks,只需填写对应代理地址即可。
验证通道状态:
clawdbot channels status --probe 若返回 Gateway not reachable,说明代理未生效或Telegram API不可达,请检查代理服务是否运行、端口是否开放、Token是否正确。
4. 二次开发指南:MIT协议下的自由实践
4.1 协议解读:MIT不是口号,是权利保障
MIT协议是开源世界最宽松的许可证之一。对开发者而言,它意味着:
- 可以将ClawdBot或MoltBot代码用于商业产品,无需公开衍生代码;
- 可以闭源发布基于它的SaaS服务,收取订阅费;
- 可以修改源码、删除品牌标识、重命名后作为自有产品发布;
- 可以打包进企业内网系统,作为AI能力底座,不违反任何合规要求。
GitHub上已有社区贡献的Discord、Slack适配分支,证明其扩展性已被实际验证。你不需要从零造轮子,而是在成熟骨架上叠加业务逻辑。
4.2 接口调用:用HTTP对接你的系统
ClawdBot提供标准OpenAI兼容API接口,任何支持OpenAI格式的前端、App、脚本均可直接调用:
curl http://localhost:8000/v1/chat/completions \ -H "Content-Type: application/json" \ -H "Authorization: Bearer sk-local" \ -d '{ "model": "vllm/Qwen3-4B-Instruct-2507", "messages": [{"role": "user", "content": "你好,今天天气怎么样?"}] }' 返回结构与OpenAI完全一致,可无缝替换现有AI调用链路。
4.3 插件开发:为MoltBot添加新能力
MoltBot的快捷命令(如 /weather)本质是插件机制。你可以在 src/plugins/ 目录下新建Python文件,例如 currency.py:
# src/plugins/currency.py from moltbot.plugin import Plugin class CurrencyPlugin(Plugin): def __init__(self): super().__init__(name="currency", command="/fx") def handle(self, message, args): # 解析金额与币种,调用汇率API return f" 100 USD ≈ 723.5 CNY(实时汇率)" # 注册插件 plugin = CurrencyPlugin() 重新构建镜像后,/fx 命令即生效。整个过程不侵入核心逻辑,符合高内聚低耦合原则。
5. 真实体验反馈:它真的好用吗?
我们实测了三个典型场景,不美化、不回避问题:
- 群聊翻译:在20人技术群中启用MoltBot,英文技术讨论自动翻译成中文,准确率约92%。专业术语(如“quantization-aware training”)偶有偏差,但上下文足以理解;
- 图片OCR翻译:拍摄一张日文说明书照片,MoltBot在2.3秒内返回中文翻译,表格结构保留完整,公式符号未误识;
- 语音转译:15秒英文语音消息,Whisper tiny识别耗时1.1秒,翻译耗时0.4秒,整体延迟可控,发音清晰时识别率超95%。
不足之处也客观存在:
- 图片中极小字号(<8pt)或艺术字体识别率下降;
- Whisper tiny对带口音英语识别稳定性一般,建议高要求场景升级tiny.en或base模型;
- 天气数据依赖第三方API,部分小众城市可能无结果。
但这些都不是架构缺陷,而是可量化、可替换、可优化的具体模块。这正是开源项目的魅力——问题不在黑盒里,而在你可控的代码行中。
6. 总结:为什么你应该关注ClawdBot与MoltBot
ClawdBot不是一个玩具项目,而是一套经过生产环境验证的AI网关框架;MoltBot也不是一个功能堆砌的Bot,而是将“多平台+多模态+零配置”真正落地的标杆案例。
它代表了一种新的技术实践范式:
- 不再迷信大厂API,而是回归本地可控;
- 不再被SaaS功能锁死,而是用MIT协议保障长期演进自由;
- 不再把AI当作黑盒服务,而是作为可调试、可替换、可组合的基础设施模块。
无论你是想为团队快速搭建一个翻译助手,还是计划开发一款面向海外用户的AI产品,又或者只是想在家用设备上跑起一个真正属于自己的AI,ClawdBot与MoltBot都提供了扎实、透明、可持续的起点。
技术的价值,不在于它多炫酷,而在于它是否让你离目标更近一步。这一次,它确实做到了。
获取更多AI镜像
想探索更多AI镜像和应用场景?访问 ZEEKLOG星图镜像广场,提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。