【AI Agent】Clawdbot 通用部署与配置教程(Ubuntu Server / Copilot / Telegram)

【AI Agent】Clawdbot 通用部署与配置教程(Ubuntu Server / Copilot / Telegram)

本文给出一套 Clawdbot 部署流程:在 Ubuntu 服务器上安装并运行 Clawdbot Gateway,选择 GitHub Copilot 模型(可替换为其他 provider),接入聊天机器人。
在跟着本文进行部署之前,你应该已经做好下面的准备:

  1. 一个LLM服务的API KEY,本文使用Copilot,你可以通过Github学生认证免费获取Copilot Pro服务,其他提供商,如月之暗面的API KEY也是可以的
  2. 一个可以使用的机器人服务,本文使用telegram的机器人,同样的你也可以使用What’s APP等其他软件的机器人
  3. 一台运行Linux系统的服务器,虽然Windows系统的部署同理,但是本文只针对Linux系统,笔者使用的是Ubuntu 22.04,服务器配置2H2G

前置准备

  1. 一台 Ubuntu 服务器(建议 22.04+)
  2. 一个非 root 的业务用户(clawd的权限非常高,root权限可能会让他做危险操作)
  3. 一个可用的 GitHub 账号 已开通 GitHub Copilot 订阅(或组织授权)
  4. 若接入相应的聊天机器人,准备相应的api key

安装基础工具:

sudoapt update sudoapt -y installcurl ca-certificates gitlsof

安装 Node.js

安装 nvm

curl -fsSL https://raw.githubusercontent.com/nvm-sh/nvm/v0.39.7/install.sh |bash

安装完成后,让当前 shell 立即加载 nvm(推荐直接重新加载 shell):

execbash

验证 nvm 是否可用:

command -v nvm nvm --version 

如果能输出路径/版本号,就说明安装成功。

用 nvm 安装 Node(推荐25)

nvm install25 nvm use 25 nvm alias default 25

PS:许多教程在这里推荐安装22,但是最近Clawdbot社区反应22版本的Clawdbot在配置telegram机器人的时候会遇到bug无法启动,所以建议直接上25,并nvm也支持多版本切换,比较实用

验证安装是否完成

node -v npm -v whichnode

安装 Clawdbot

用 npm 全局安装:

sudonpm i -g clawdbot 

验证:

clawdbot -V clawdbot help

初始化本地配置与工作区:

clawdbot setup 

运行引导配置

clawdbot onboard 

这里主要是选择一下配置
第一个我们选择Yes
接着模型我们选择Copilot 稍加等待后会弹出一个网址和一个八位代码
进入这个网址登录我们的github账号,输入代码授权,Clawdbot就可以使用我们的Copilot了
机器人代理我们选择Telegram,这里需要我们先去BotFather注册一个机器人,具体的可以查看其他教程
然后Skills和其他功能根据自己的需要选择Yes或No

启动 Gateway

建议先用最小启动命令,确认能启动并监听端口:

clawdbot gateway --bind loopback --port 18789

检查监听:

sudolsof -iTCP:18789 -sTCP:LISTEN -n -P 

本机访问(如果你在服务器上):

Dashboard:http://127.0.0.1:18789/ WebSocket:ws://127.0.0.1:18789 

一般gateway启动成功就代表模型配置成功了,可以直接去对应的机器人聊天界面尝试一下对话

Read more

在普通电脑上跑大模型?!llama.cpp 实战指南(真·CPU救星)

文章目录 * 🤯 为什么你需要关注llama.cpp? * 🚀 手把手实战:十分钟跑通模型 * 第一步:准备战场环境 * 第二步:获取模型文件(关键!) * 第三步:启动模型交互! * 🛠️ 高级玩法解锁 * 💡 我的深度体验报告 * 👍 真香时刻 * 🤔 遇到的坑 * 🌟 超实用场景推荐 * 🔮 未来展望:CPU的逆袭? 还在为没显卡跑不动AI模型发愁?这个开源项目让我的旧笔记本起死回生了! 朋友们!今天要分享一个让我拍桌子叫绝的开源神器——llama.cpp。当初看到这个项目时我整个人都惊呆了:纯C++实现!不需要GPU!普通CPU就能跑! 作为一个常年被显卡价格PUA的程序员,这简直是救命稻草啊! 🤯 为什么你需要关注llama.cpp? 先说说我踩过的坑吧。去年想在家折腾开源大模型,结果: * 显卡要求动不动就16G显存(我的1060直接哭晕) * 装依赖环境能折腾一整天(Python版本地狱啊!) * 跑个7B模型风扇像直升机起飞(邻居以为我在挖矿) 直到发现了Georgi Gergan

By Ne0inhk
如何降低AIGC总体疑似度?7个实用技巧+专业工具真实案例分享

如何降低AIGC总体疑似度?7个实用技巧+专业工具真实案例分享

为什么你的论文总是被标为AIGC疑似? 近年来,随着AI写作工具的普及,一个让无数研究者头疼的问题出现了——AIGC总体疑似度过高。根据各大高校的最新规定,如果论文的AIGC率超过30%,很可能被判定为AI代写,直接取消答辩资格! 根据高校规定,AIGC率超过30%可能被判定为学术不端,面临取消答辩资格的风险。 许多同学反映:"我只是用AI辅助写作,怎么就被判定为学术不端了?" 这背后的原因是AI生成内容具有特定的规律性特征,如固定句式、高频词汇组合等,这些"数字指纹"很容易被检测系统识别。 7个实用降重技巧,亲测有效! 1. 变换表达,重构句式 避免使用AI常见的短句结构,如"首先,"、"综上,"等。将这些碎片化表达整合成完整句子。 示例对比: * 改前:综上所述,研究者们普遍认为企业偿债能力是一个多维度的概念。 * 改后:总之研究人员普遍认同企业偿债能力这一多维度概念。 2. 引入具体数据和案例 通过添加真实的研究数据、

By Ne0inhk

亲测Meta-Llama-3-8B-Instruct:英语对话效果超预期体验分享

亲测Meta-Llama-3-8B-Instruct:英语对话效果超预期体验分享 1. 引言:为何选择 Meta-Llama-3-8B-Instruct? 在当前开源大模型快速迭代的背景下,如何在有限算力条件下实现高质量的英文对话能力成为许多开发者关注的核心问题。Meta 于 2024 年 4 月发布的 Meta-Llama-3-8B-Instruct 模型,凭借其 80 亿参数规模、指令微调优化和 Apache 2.0 可商用协议,迅速成为轻量级部署场景下的热门选择。 本文基于实际部署与测试经验,重点分享使用 vLLM + Open WebUI 构建的推理服务中,该模型在英语对话任务中的表现。通过真实交互案例、性能分析与配置建议,帮助读者判断其是否适合作为英文客服、教育辅助或代码助手等应用场景的技术底座。 值得一提的是,该模型对中文支持较弱,若需中文能力,建议进行额外微调或选用其他多语言优化版本。 2. 模型核心特性解析 2.1 参数规模与硬件适配性 Meta-Llama-3-8B-Instruct 是一个全连接(Dense)结构的 80

By Ne0inhk
【OpenAI】【干货】DALL·E 2全方位教程:零基础快速上手AI图像生成与应用优势解析获取OpenAI API KEY的两种方式,开发者必看全方面教程!

【OpenAI】【干货】DALL·E 2全方位教程:零基础快速上手AI图像生成与应用优势解析获取OpenAI API KEY的两种方式,开发者必看全方面教程!

【干货】DALL·E 2详细教程+应用优势全解析!零基础也能玩转AI图像生成🔥 引言:你真的了解DALL·E 2吗?AI绘画的未来就在这里! 你有没有想过,只用一句话描述,就能生成一幅栩栩如生的图像?这不是科幻,而是DALL·E 2带给我们的现实。作为OpenAI推出的革命性文本生成图像模型,DALL·E 2正在颠覆设计、广告、教育、游戏等多个行业的创作方式。 我有个朋友小李,是一名平面设计师。以前他每天都要花大量时间构思和绘制草图,常常加班到深夜。自从他开始用DALL·E 2,只需输入简单的文字描述,几秒钟内就能获得多张高质量设计稿,灵感和效率双双爆棚!这背后的秘密,就是DALL·E 2强大的AI能力。 今天,我将带你深入了解DALL·E 2的应用优势,并手把手教你如何用Python调用API,快速生成属于你的专属图像。无论你是设计新手,还是技术大咖,都能从中获得实用干货,开启AI创作新时代!🚀 目录

By Ne0inhk