【AI Agent】Clawdbot 通用部署与配置教程(Ubuntu Server / Copilot / Telegram)

【AI Agent】Clawdbot 通用部署与配置教程(Ubuntu Server / Copilot / Telegram)

本文给出一套 Clawdbot 部署流程:在 Ubuntu 服务器上安装并运行 Clawdbot Gateway,选择 GitHub Copilot 模型(可替换为其他 provider),接入聊天机器人。
在跟着本文进行部署之前,你应该已经做好下面的准备:

  1. 一个LLM服务的API KEY,本文使用Copilot,你可以通过Github学生认证免费获取Copilot Pro服务,其他提供商,如月之暗面的API KEY也是可以的
  2. 一个可以使用的机器人服务,本文使用telegram的机器人,同样的你也可以使用What’s APP等其他软件的机器人
  3. 一台运行Linux系统的服务器,虽然Windows系统的部署同理,但是本文只针对Linux系统,笔者使用的是Ubuntu 22.04,服务器配置2H2G

前置准备

  1. 一台 Ubuntu 服务器(建议 22.04+)
  2. 一个非 root 的业务用户(clawd的权限非常高,root权限可能会让他做危险操作)
  3. 一个可用的 GitHub 账号 已开通 GitHub Copilot 订阅(或组织授权)
  4. 若接入相应的聊天机器人,准备相应的api key

安装基础工具:

sudoapt update sudoapt -y installcurl ca-certificates gitlsof

安装 Node.js

安装 nvm

curl -fsSL https://raw.githubusercontent.com/nvm-sh/nvm/v0.39.7/install.sh |bash

安装完成后,让当前 shell 立即加载 nvm(推荐直接重新加载 shell):

execbash

验证 nvm 是否可用:

command -v nvm nvm --version 

如果能输出路径/版本号,就说明安装成功。

用 nvm 安装 Node(推荐25)

nvm install25 nvm use 25 nvm alias default 25

PS:许多教程在这里推荐安装22,但是最近Clawdbot社区反应22版本的Clawdbot在配置telegram机器人的时候会遇到bug无法启动,所以建议直接上25,并nvm也支持多版本切换,比较实用

验证安装是否完成

node -v npm -v whichnode

安装 Clawdbot

用 npm 全局安装:

sudonpm i -g clawdbot 

验证:

clawdbot -V clawdbot help

初始化本地配置与工作区:

clawdbot setup 

运行引导配置

clawdbot onboard 

这里主要是选择一下配置
第一个我们选择Yes
接着模型我们选择Copilot 稍加等待后会弹出一个网址和一个八位代码
进入这个网址登录我们的github账号,输入代码授权,Clawdbot就可以使用我们的Copilot了
机器人代理我们选择Telegram,这里需要我们先去BotFather注册一个机器人,具体的可以查看其他教程
然后Skills和其他功能根据自己的需要选择Yes或No

启动 Gateway

建议先用最小启动命令,确认能启动并监听端口:

clawdbot gateway --bind loopback --port 18789

检查监听:

sudolsof -iTCP:18789 -sTCP:LISTEN -n -P 

本机访问(如果你在服务器上):

Dashboard:http://127.0.0.1:18789/ WebSocket:ws://127.0.0.1:18789 

一般gateway启动成功就代表模型配置成功了,可以直接去对应的机器人聊天界面尝试一下对话

Read more

开源浪潮下的中国力量:文心一言大模型本地部署与应用全攻略

开源浪潮下的中国力量:文心一言大模型本地部署与应用全攻略

文章目录 * 一、前言 * 1.1 模型开源意义与背景 * 1.2 文心一言大模型简介 * 1.3 测评目标与思路 * 二、文心一言大模型 * 2.1 文心一言开源概况 * 2.2 文心一言大模型技术综述 * 三、文心一言大模型深度解析 * 3.1 开源策略与生态影响 * 3.1.1 开源时间与版本介绍 * 3.2 模型特性与优势 * 四、部署实战:从 GitCode下载ERNIE-4.5-0.3B 模型到本地可交互服务 * 4.1 环境准备与部署方式 * 4.2 下载与安装步骤 * 4.3 调用示例与接口说明 * 编写部署测试脚本 * 五、

在 NVIDIA DGX Spark部署 Stable Diffusion 3.5 并使用ComfyUI

在 NVIDIA DGX Spark部署 Stable Diffusion 3.5 并使用ComfyUI

📖 前言 随着 NVIDIA Blackwell 架构的问世,DGX Spark (Personal AI Supercomputer) 将桌面级 AI 算力推向了新的巅峰。这台怪兽级设备搭载了 GB200/GB10 级别的 GPU 和 NVIDIA Grace CPU (ARM64),并运行在最新的 CUDA 13 环境下。 然而,“最强硬件"往往伴随着"最难环境”。由于 Grace CPU 采用 ARM (aarch64) 架构,且 CUDA 13 过于前沿,传统的 PyTorch 安装方法极易失败。 本文将手把手教你如何在这台超级计算机上部署 Stable Diffusion

ChatGPT免费版与微软Copilot深度对比:技术选型与新手避坑指南

作为一名开发者,最近在项目里想集成一个AI助手,面对市面上眼花缭乱的选择,尤其是免费的ChatGPT和微软力推的Copilot,到底该选哪个?这确实是个让人纠结的问题。我花了一些时间,从技术实现、实际调用到性能表现,做了一次比较深入的对比和测试,希望能给同样有选择困难的朋友们一些参考。 1. 市场定位与典型场景:它们各自擅长什么? 简单来说,你可以把ChatGPT免费版看作一个“通用型对话专家”,而微软Copilot更像一个“深度集成在微软生态里的专业副驾驶”。 * ChatGPT免费版:它的核心优势在于强大的通用对话和文本生成能力。无论是头脑风暴、撰写邮件、学习新概念,还是进行开放式的创意讨论,它都能提供质量不错的回应。对于开发者而言,它非常适合用于: * 学习新技术:解释复杂的编程概念或算法。 * 代码解释与重构:将一段代码丢给它,让它解释逻辑或提出优化建议。 * 生成示例代码:根据自然语言描述,快速生成某个功能的代码片段原型。 * 微软Copilot:它的设计初衷就是提升开发和生产效率,与Visual Studio Code、GitHub、Micros

大模型测评:千问、DeepSeek、豆包、KIMI、元宝、文心一言,降英文AI率谁最能打?

大模型测评:千问、DeepSeek、豆包、KIMI、元宝、文心一言,降英文AI率谁最能打?

时间来到2026年,对于留学生和海外内容创作者来说,与AI检测工具的博弈早已成为日常。Turnitin、GPTZero、ZeroGPT的算法日益精进,单纯依靠ChatGPT或DeepSeek生成内容后直接提交,无异于“裸奔”。 为了通过检测,大家开始寻求各种“降AI率”工具。但市面上工具繁多,智写AI、通义千问、DeepSeek、豆包、KIMI、腾讯元宝、文心一言……这些名字频频出现。它们谁真的能打?谁只是花架子? 今天,我们将基于2026年最新的实测数据与用户反馈,对这七款工具在降英文AIGC率这场硬仗中的表现,进行一次彻底的横向对比。 测评说明:我们怎么测的? 为了公平起见,我们设定了一个标准的测试场景: * 测试文本:一段由AI生成的英文学术引言(主题:机器学习在金融风控中的应用),初始AI率经Turnitin模拟环境检测为 92%。 * 考核维度: 1. 降AI核心效果:处理后文本在主流检测工具中的AI率。 2. 文本质量:是否保留原意、专业术语是否准确、逻辑是否通顺。 3. 场景契合度:是否适合学术/