比 OpenClaw 轻 99%!我用 nanobot 搭了个 QQ AI 机器人,还顺手贡献了代码



4000 行代码,打造你的私人 AI 助手❞

前言

最近 AI Agent 领域有个项目特别火——「OpenClaw」,它是一个功能强大的 AI 助手框架,能让你拥有一个 7×24 小时在线的智能助理。

但当我 clone 下来准备研究时,发现它有 「43 万行代码」!对于想快速上手或做二次开发的个人开发者来说,这个体量实在太重了。

直到我发现了它的"轻量版"——「nanobot」

nanobot:99% 的瘦身,核心功能全保留

nanobot 来自香港大学数据科学实验室(HKUDS),它的设计理念很简单:



用最少的代码,实现 AI Agent 的核心能力❞

来看一组对比数据:

项目

代码行数

核心功能

OpenClaw

430,000+

全功能

nanobot

~4,000

核心功能

「瘦身比例:99%!」

但别被这个数字吓到,nanobot 保留了最实用的功能:

  • ✅ 多轮对话与上下文记忆
  • ✅ 网页搜索与信息获取
  • ✅ 代码编写与执行
  • ✅ 定时任务调度
  • ✅ 多平台接入(QQ、微信、Telegram、Discord 等)

对于 90% 的个人使用场景,这些功能完全够用。

实战:5 分钟搭建 QQ AI 助手

下面我带你从零开始,搭建一个属于自己的 QQ AI 机器人。

第一步:环境准备

nanobot 需要 Python 3.11+,如果你的系统版本较低,需要先升级:

# CentOS/RHEL dnf install python3.11 python3.11-pip # Ubuntu/Debian apt install python3.11 python3.11-pip

第二步:安装 nanobot

git clone https://github.com/HKUDS/nanobot.git cd nanobot pip3.11 install -e .

第三步:初始化配置

python3.11 -m nanobot onboard

这会在 ~/.nanobot/ 目录下生成配置文件。

第四步:配置 LLM 后端

编辑 ~/.nanobot/config.json,我推荐使用 「Gemini」(免费额度够用):

{   "agents": {     "defaults": {       "model": "gemini/gemini-2.5-flash"     }   },   "providers": {     "gemini": {       "apiKey": "你的 Gemini API Key"     }   } }


💡 获取 Gemini API Key:https://aistudio.google.com/apikey❞

第五步:配置 QQ 机器人

  1. 前往 QQ 开放平台 注册开发者账号
  2. 创建一个机器人应用,获取 AppID 和 Secret
  3. 在配置文件中启用 QQ 频道:
{   "channels": {     "qq": {       "enabled": true,       "appId": "你的 AppID",       "secret": "你的 Secret"     }   } }

第六步:启动!

python3.11 -m nanobot gateway

看到 机器人「xxx」启动成功! 就表示一切就绪,去 QQ 上找你的机器人聊天吧!

踩坑记录:搜索功能的 API Key 困扰

当我兴冲冲地让机器人帮我搜索新闻时,它回复:



"无法获取网页搜索结果,因为缺少 BRAVE_API_KEY"❞

什么?搜索还要单独的 API Key?

研究了一下发现,nanobot 默认使用 「Brave Search API」 作为搜索后端,这需要注册并获取 API Key。虽然有免费额度,但注册流程有点繁琐。

我就想:能不能支持其他搜索引擎?比如完全免费的 DuckDuckGo?

我的开源贡献:多搜索引擎支持

说干就干!我 fork 了 nanobot 仓库,花了一个下午重构了搜索模块,实现了三种搜索引擎的支持:

架构设计

采用「策略模式」,让搜索后端可插拔:

SearchBackend (抽象基类)     ├── TavilyBackend   (AI 优化搜索,推荐)     ├── BraveBackend    (原版默认)     └── DuckDuckGoBackend (免费,无需 API Key)

核心代码

class SearchBackend(ABC):     @abstractmethod     async def search(self, query: str, max_results: int) -> list[dict]:         pass class DuckDuckGoBackend(SearchBackend):     """免费搜索,无需 API Key"""     async def search(self, query: str, max_results: int) -> list[dict]:         # 解析 DuckDuckGo HTML 页面获取结果         url = f"https://html.duckduckgo.com/html/?q={quote(query)}"         # ... 实现细节

使用方式

现在只需在配置文件中指定引擎即可:

{   "tools": {     "web": {       "search": {         "engine": "tavily",  // 或 "brave" 或 "duckduckgo"         "apiKey": "你的 API Key"       }     }   } }

「三种引擎对比:」

引擎

需要 API Key

搜索质量

推荐场景

Tavily

✅ (免费 1000次/月)

⭐⭐⭐⭐⭐

AI 应用首选

Brave

⭐⭐⭐⭐

隐私优先

DuckDuckGo

⭐⭐⭐

零成本体验

我已经将这个特性提交了 PR,希望能帮助到更多开发者:



PR 地址:https://github.com/HKUDS/nanobot/pull/507❞

效果展示

配置好 Tavily 后,搜索功能完美运行!来看看实际对话效果:

nanobot QQ 机器人对话截图

从截图可以看到:搜索结果的质量相当不错,信息及时且全面,这就是 Tavily 作为 AI 优化搜索引擎的优势。

总结

nanobot 是一个非常适合个人开发者的 AI Agent 框架:

「优点:」

  • 代码量小,易于理解和修改
  • 安装部署简单,5 分钟上手
  • 支持多平台(QQ、微信、Telegram 等)
  • 社区活跃,更新频繁

「适合场景:」

  • 个人 AI 助手
  • 学习 AI Agent 原理
  • 快速原型验证
  • 二次开发定制

「不适合场景:」

  • 企业级生产环境
  • 需要复杂工作流的场景

如果你也想拥有一个 24 小时在线的 AI 助手,不妨试试 nanobot!


「相关链接:」

  • nanobot 官方仓库:https://github.com/HKUDS/nanobot
  • OpenClaw 官方仓库:https://github.com/openclaw/openclaw
  • Gemini API:https://aistudio.google.com/apikey
  • Tavily API:https://tavily.com/
  • QQ 开放平台:https://q.qq.com/



🔥 如果这篇文章对你有帮助,欢迎点赞、在看、转发三连!

有问题欢迎在评论区留言,我会一一解答~❞

Read more

MK米客方德SD NAND:无人机存储的高效解决方案

MK米客方德SD NAND:无人机存储的高效解决方案

在无人机技术迅猛发展的当下,飞控系统的数据记录对于飞行性能剖析、故障排查以及飞行安全保障极为关键。以往,SD 卡是飞控 LOG 记录常见的存储介质,但随着技术的革新,新的存储方案不断涌现。本文聚焦于以 ESP32 芯片为主控制器的无人机,创新性采用 SD NAND 芯片 MKDV32GCL-STPA 芯片进行 SD NAND 存储,测试其在飞控 LOG 记录功能中的表现。 米客方德 SD NAND 芯片特性 免驱动优势:与普通存储设备不同,在该应用场景下,SD NAND 无需编写复杂的驱动程序。这极大地简化了开发流程,缩短了开发周期,减少了潜在的驱动兼容性问题,让开发者能够更专注于实现核心功能。 自带坏块管理功能:存储设备出现坏块难以避免,而 MKDV32GCL - STPA 芯片自带的坏块管理机制可自动检测并处理坏块。这确保了数据存储的可靠性,避免因坏块导致的数据丢失或错误写入,提升了整个存储系统的稳定性。 尺寸小巧与强兼容性:

无人机遥感航拍巡检数据集 无人机遥感图像识别 无人机视角山区泥石流和滑坡图像识别数据集-数据集第10067期

无人机遥感航拍巡检数据集 无人机遥感图像识别 无人机视角山区泥石流和滑坡图像识别数据集-数据集第10067期

滑坡检测数据集核心信息介绍 ** 这个滑坡检测数据集主要用于目标检测任务,整体数据规模和细节都比较明确。从数量上看,数据集总共包含 1660 张图像, 往期热门主题 主题搜两字"关键词"直达 代码数据获取: 获取方式:***文章底部卡片扫码获取*** 覆盖了YOLO相关项目、OpenCV项目、CNN项目等所有类别, 覆盖各类项目场景(包括但不限于以下----欢迎咨询定制): 项目名称项目名称基于YOLO+deepseek 智慧农业作物长势监测系统基于YOLO+deepseek 人脸识别与管理系统基于YOLO+deepseek 无人机巡检电力线路系统基于YOLO+deepseek PCB板缺陷检测基于YOLO+deepseek 智慧铁路轨道异物检测系统基于YOLO+deepseek 102种犬类检测系统基于YOLO+deepseek 人脸面部活体检测基于YOLO+deepseek 无人机农田病虫害巡检系统基于YOLO+deepseek 水稻害虫检测识别基于YOLO+deepseek 安全帽检测系统基于YOLO+deepseek 智慧铁路接触网状态检测系统基于YOLO+

PyTorch实战——基于文本引导的图像生成技术与Stable Diffusion实践

PyTorch实战——基于文本引导的图像生成技术与Stable Diffusion实践

PyTorch实战——基于文本引导的图像生成技术与Stable Diffusion实践 * 0. 前言 * 1. 基于扩散模型的文本生成图像 * 2. 将文本输入编码为嵌入向量 * 3. 条件 UNet 模型中的文本数据融合机制 * 4. 使用 Stable Diffusion 模型生成图像 * 相关链接 0. 前言 在本节中,我们将为扩散模型添加文本控制能力。学习如何通过文字描述来引导图像生成过程,实现从"纯噪声+文本"生成图像,而不仅是从纯噪声生成。 1. 基于扩散模型的文本生成图像 在扩散模型的 UNet 模型训练流程中,我们仅训练模型从含噪图像中预测噪声。为实现文生图功能,需使用以下架构,将文本作为额外输入注入 UNet 模型: 这样的 UNet 模型称为条件 UNet 模型 ,或者更精确地说,是文本条件 UNet

Android WebRTC 实战:如何优化实时音视频传输效率

快速体验 在开始今天关于 Android WebRTC 实战:如何优化实时音视频传输效率 的探讨之前,我想先分享一个最近让我觉得很有意思的全栈技术挑战。 我们常说 AI 是未来,但作为开发者,如何将大模型(LLM)真正落地为一个低延迟、可交互的实时系统,而不仅仅是调个 API? 这里有一个非常硬核的动手实验:基于火山引擎豆包大模型,从零搭建一个实时语音通话应用。它不是简单的问答,而是需要你亲手打通 ASR(语音识别)→ LLM(大脑思考)→ TTS(语音合成)的完整 WebSocket 链路。对于想要掌握 AI 原生应用架构的同学来说,这是个绝佳的练手项目。 从0到1构建生产级别应用,脱离Demo,点击打开 从0打造个人豆包实时通话AI动手实验 Android WebRTC 实战:如何优化实时音视频传输效率 在移动端实时音视频通信场景中,Android 开发者常面临三大核心挑战:平均端到端延迟超过 400ms 时用户体验显著下降,