Clawdbot一夜爆火,我用云服务器搭了个24小时在线的AI助理

Clawdbot一夜爆火,我用云服务器搭了个24小时在线的AI助理

1.Clawdbot爆火

近日,一款名为ClawdBot的产品在全球技术圈掀起热潮,从X、Reddit到中文技术社区,处处可见它的身影。究竟是什么让这个AI智能体如此引人注目?(已经改名为Moltbot)

ClawdBot的创作者Peter在介绍中强调,这原本只是一个“生活助理”项目——通过WhatsApp发送消息,转到Claude Code处理,再将结果返回。

但真正让技术圈沸腾的是它革命性的人机协作模式

  • 运行在用户自己的环境中(本地电脑或个人服务器)
  • 交互方式回归熟悉的聊天软件,如同与同事交谈般自然
  • 拥有完整操作权限与超长记忆,成为真正意义上的个人专属AI
  • 数据完全由用户掌控,无需担心隐私泄露

随着ClawdBot走红,Mac Mini甚至成了“理财产品”,很多先行者大量购入专门运行ClawdBot。

但本着安全第一的原则:切勿在主力电脑上部署ClawdBot

所以今天教大家在云服务器上部署Clawdbot,这样你就能得到一个7 x 24工作的AI助理了

2.效果

3.准备工作

我们需要准备一台非国内的服务器,不得不说腾讯的速度真是快,直接就上线了Clawdbot的云服务器,一个月38元吧,想体验Clawdbot又不想用自己的Mac部署的友友,可以直接冲了

地址:https://buy.cloud.tencent.com/lighthouse

购买完成后,我们接着登录服务器进行配置

4.登录配置

  1. 登录Lighthouse控制台,进入实例页面,找到刚买的服务器,点登录
  1. 选择免密登录,免密连接就能登录上服务器

登录成功后,只需运行一条命令:

clawdbot onboard 

按提示完成后续配置,你的专属AI助理就能开始工作了!各个步骤的说明如下

5.配置细节

1.同意免责声明

2.配置模式选QuickStart

3.模型配置

根据提示信息选择你要用的模型,这里小卷使用的Qwen,然后将下面提示的地址拷贝出来,在浏览器打开,登录千问就行了

4.聊天软件配置

这里官方支持的聊天软件都是国外的,我们基本是不会用到的,所以小卷用telegram作为演示

6.接入Telegram

1.打开 Telegram(需要自己安装或者使用网页版),搜索 @BotFather

2.发送 /newbot,按提示起名(用户名必须以 bot 结尾)

3.复制生成的 token(类似 123456789:ABCdef…)


把 token 告诉 AI,它会自动写入配置

然后在 Telegram 里获取配对码,发给 AI:

AI 会帮你执行配对命令:

 clawdbot pairing approve telegram <配对码> 

完成!现在可以在 Telegram 里正常聊天了:

7.可能的问题

接入telegram这一步可能出现Clawdbot没有运行起来,报错:Systemd user services are unavailable. Skipping lingering checks and service install

解决方法:

  • SSH登录上服务器
  • 执行命令clawdbot gateway run解决,之后正常执行上面的步骤就行

检查Clawdbot有没有运行起来的命令:

  • 执行ss -lntp | grep 18789查看有没有输出,有就说明已经运行了

Clawdbox的玩法远不止这些。你可以让它:

  • 定时提醒你喝水、运动
  • 帮你整理待办事项
  • 查快递、查天气
  • 甚至写代码、调试程序

这些高级玩法,我会在后面的文章里慢慢分享。

先把这个基础版搭起来,体验一下拥有AI助理的感觉吧。相信我,用上就回不去了。

Read more

在 Mac Mini M4 上本地跑大模型(Ollama + Llama + ComfyUI + Stable Diffusion | Flux)

在 Mac Mini M4 上本地跑大模型(Ollama + Llama + ComfyUI + Stable Diffusion | Flux)

Mac Mini M4 配备了苹果自家研发的 M1/M2/M4 芯片,具有强大的处理能力,能够支持本地跑一些大模型,尤其是在使用如 Ollama、Llama、ComfyUI 和 Stable Diffusion 这类 AI 相关工具时,性能表现非常好。本教程将指导你如何在 Mac Mini M4 上本地部署并运行这些大模型,涵盖从环境搭建到使用的全流程。 一、准备工作 1. 确保系统更新 确保你的 macOS 版本已更新到最新的版本(例如 macOS 13.0 以上),这将确保兼容性和性能。 安装 Homebrew(macOS 包管理工具) Homebrew 是 macOS 上非常流行的包管理工具,它帮助你方便地安装各种软件。在终端中输入以下命令来安装

解决VsCode远程服务器上Copilot无法使用Claude的问题

最近在用vscode中的GitHub copilot,发现无法使用claude系列的模型 很多小伙伴知道要开代理,开往带你以后claude确实会出来,本地使用没有任何问题,但是如果使用远程服务器ssh,claude系列的模型就消失了,参考这篇博客https://blog.ZEEKLOG.net/qq_40620465/article/details/152000104 按照博主的方法,需要加一个改动,在设置远程服务器(注意不是“用户”)的setting.json时需要加入"http.useLocalProxyConfiguration": true, 完成后再重启vscode,claude就有了:

n8n 集成飞书机器人完整实战指南:从零到一的踩坑之路

n8n 集成飞书机器人完整实战指南:从零到一的踩坑之路

n8n 集成飞书机器人完整实战指南:从零到一的踩坑之路 前言 本文记录了近期项目中在 Docker 环境下使用 n8n 集成飞书机器人踩坑的完整过程,包括遇到的各种坑点和解决方案。希望能帮助后来者避免重复踩坑。 项目背景 我们的目标是将一个 n8n 销售助手工作流集成到飞书聊天中,实现: * 用户在飞书群聊或私聊中@机器人 * 机器人接收消息并调用 AI 模型处理 * 返回个性化的销售建议 环境架构 飞书客户端 → 飞书开放平台 → WebSocket → n8n → PostgreSQL ↓ OpenAI API 对应的n8n业务流 技术栈 * n8n: 1.111.0 (Docker 部署) * PostgreSQL: 16 * Nginx: 反向代理 * 飞书开放平台: 企业自建应用 * 社区包: n8n-nodes-feishu-lark 踩坑记录与解决方案 坑0:Webhook 方式的深度陷阱(

VRCT智能翻译工具:打破VRChat语言壁垒的终极解决方案

你是否曾在VRChat的国际房间中,因为听不懂其他玩家的语言而感到孤立?你是否渴望与来自世界各地的VR爱好者自由交流,却苦于语言障碍?VRCT智能翻译工具正是为这样的场景而生,这款革命性的跨语言沟通助手正在重新定义VR社交的边界。 【免费下载链接】VRCTVRCT(VRChat Chatbox Translator & Transcription) 项目地址: https://gitcode.com/gh_mirrors/vr/VRCT 三大技术突破重塑VR社交体验 实时语音识别技术革新 VRCT采用前沿的神经网络算法,能够准确捕捉并转换麦克风输入和扬声器输出的音频内容。系统内置智能降噪模块,即使在嘈杂的虚拟环境中也能保持高识别率。通过src-python/models/transcription/目录下的语音处理模块,实现毫秒级响应速度。 多语言互译引擎优化 支持英语、中文、日语、韩语等多种语言间的精准互译。基于src-python/models/translation/目录下的翻译设置文件,系统能够理解不同语言的语法结构和文化背景,确保翻译结果的自然流畅。 VRCh