NoneBot+Lagrange搭建qq机器人保姆级别教程

NoneBot+Lagrange搭建qq机器人保姆级别教程

前言

因为一些原因,go-cqhttp不一定能使用,gocq的作者也是呼吁大家尽快转移到无头NTQQ项目当中去,其中就有很多优秀的平替作品,如:NapNeko/NapCatQQ: 基于NTQQ的无头Bot框架 (github.com)还有今天要介绍的LagrangeDev/Lagrange.Core: An Implementation of NTQQ Protocol, with Pure C#, Derived from Konata.Core (github.com)

准备工作

  1. 一台电脑或服务器(服务器搭建bot的教程后面会出)
  2. Lagrange程序
  3. python3.9及以上版本
  4. nonebot插件

1.关于操作系统

可供选择的操作系统:

  1. Windows
  2. Linux
  3. MacOS

2.Lagrange程序下载

首先是程序下载链接:Releases · LagrangeDev/Lagrange.Core (github.com)

根据操作系统不同选择不同的版本

1.Windows

根据系统架构选择版本,我的是64位操作系统就选择我圈起来的

解压压缩包,获得程序本体,将程序本体移动到项目文件夹,这里我移动到Bot2文件夹,双击运行程序出现下面的界面

使用要做bot账号的qq扫描二维码,成功扫描后会在程序同级目录下生成诸多文件

此时我们需要修改 appsettings.json 配置文件,粘贴以下内容进配置文件

{"Logging":{"LogLevel":{"Default":"Information","Microsoft":"Warning","Microsoft.Hosting.Lifetime":"Information"}},"SignServerUrl":"https://sign.lagrangecore.org/api/sign/25765","MusicSignServerUrl":"","Account":{"Uin":0,"Password":"","Protocol":"Linux","AutoReconnect":true,"GetOptimumServer":true},"Message":{"IgnoreSelf":true,"StringPost":false},"QrCode":{"ConsoleCompatibilityMode":false},"Implementations":[{"Type":"ReverseWebSocket","Host":"127.0.0.1","Port":8080,"Suffix":"/onebot/v11/ws","ReconnectInterval":5000,"HeartBeatInterval":5000,"AccessToken":""}]}

修改完成后重新启动程序,至此Lagrange的安装以及配置已经完成

2.Linux/MacOS

同样的选择对应系统架构的版本

获得压缩包后将压缩包放到项目文件夹中使用 tar -xvf 压缩包名称 命令来解压压缩包,与window相同,将解压出来的可执行文件放到项目根目录(MacOS同理)

获得可执行文件后先给程序赋予权限(可选,推荐进行这一步)

chmod +x ./Lagrange.OneBot 

赋予权限后运行程序

./Lagrange.OneBot 

剩下的步骤和windows一致扫描二维码以及修改配置文件,这里不过多赘述

2.NoneBot框架搭建

1.安装官方手脚架

注意: python版本要大于或等于3.9,nonebot仅支持3.9及以上版本

Windows和Linux一样,都打开命令行(Windows是cmd)输入以下命令

pip install nb-cli 

安装完成后输入 pip list 查看列表中是否有nb-cli

2.使用手脚架创建项目

确认手脚架安装完毕我们开始创建项目

输入以下命令

nb create 

我个人比较习惯simple模板因为旧版nonebot就是simple模板,这里按照个人喜好进行选择,用键盘上下键选择,选择完毕后回车

这里需要输入项目名称,大家随便取,这里我就取名test,取好名字就回车

这里让我们选择适配器,我们选择OneBotV11使用方向键选择,空格确定然后回车

这里选择驱动器,默认选择了fastapi直接回车就行

这里选择插件存储位置,选择src然后回车

是否安装依赖,填y回车

是否创建虚拟环境,我这里有虚拟环境所以填n,有小伙伴可能不知道虚拟环境是什么,可以去百度一下,反正就是为了让项目依赖不混乱的

要使用哪些内置插件,可以不选择直接回车

如果安装顺利你会看到以下界面

根据提示的命令我们运行框架,如果前面的步骤进行顺利会看到以下界面,connection open 代表框架已经和Lagrange握手链接,至此我们的qqbot已经搭建完成

3.测试Bot是否正常

如果想要测试bot是否启动正常可以在 src/plugins 目录下新建 test.py 文件写入以下内容

''' Author: 萌新源 Date: 2024-08-07 18:14:19 LastEditTime: 2024-08-08 23:15:31 LastEditors: 萌新源 Description: 测试bot是否正常启动 个性签名:敲代码就仨字,我乐意 '''from nonebot import on_regex from nonebot.typing import T_State from nonebot.adapters.onebot.v11 import GroupMessageEvent, Bot, Message Test = on_regex(pattern=r'^测试$',priority=1)@Test.handle()asyncdefTest_send(bot: Bot, event: GroupMessageEvent, state: T_State): msg ="Bot启动正常"await Test.finish(message=Message(msg))

在bot所在群聊发送测试如果看到bot回复Bot启动正常那么恭喜你你成功搭建了一个qq机器人

结尾

qq交流群:934541995

好了,至此你已经学会如何搭建一个属于自己的qq机器人了,如果本文章有帮助到你可以给我一个一键三连吗,谢谢

后续我也会考虑写nonebot插件开发教程,具体看呼声大不大了

最后感谢您的耐心阅读,我们下期再见

Read more

SmolVLA多场景落地:太空机器人舱内维护任务的动作规划适配

SmolVLA多场景落地:太空机器人舱内维护任务的动作规划适配 1. 项目概述 想象一下,在遥远的太空站里,一个机器人需要自主完成各种维护任务:抓取工具、更换设备、整理物资。这些任务看似简单,但在微重力环境下,每一个动作都需要精确规划。这就是SmolVLA大显身手的地方。 SmolVLA是一个专门为经济实惠的机器人技术设计的视觉-语言-动作模型。它最大的特点是"小而精"——只有约5亿参数,却能在各种现实场景中表现出色。就像给机器人装上了"眼睛"和"大脑",让它能看懂环境、理解指令、并执行准确的动作。 本文将通过一个具体的Web演示界面,展示SmolVLA如何适应太空舱内维护任务的动作规划需求。这个界面运行在本地7860端口,提供了一个直观的方式来体验模型的强大能力。 2. 环境准备与快速部署 2.1 系统要求 SmolVLA对硬件要求相当友好,推荐使用RTX 4090或同等级别的GPU,但即使没有高端显卡,它也能在CPU上运行(只是速度会慢一些)。这种灵活性让它特别适合实际部署场景。 2.2

具身机器人从研发到量产,网络到底该怎么分阶段规划?

具身机器人从研发到量产,网络到底该怎么分阶段规划?

在具身机器人从实验室走向量产的过程中,很多技术负责人会反复面对两个问题: “网络到底该怎么规划?是从一开始就重投入,还是先跑起来再说?” “为什么明明早期‘能连上’,后期却不得不推倒重来?” 事实是,网络的复杂度不是线性增长的,而是随着业务阶段发生结构性跳变。 真正决定成败的,往往不是技术选型,而是在哪个阶段做了哪些不可逆的假设。 从研发到落地:网络是如何一步步变复杂的? 在很多具身机器人企业里,网络往往不是一开始就被认真对待的对象。 原因也很现实: ● 规模不大、设备不多、研发节奏紧,能连上就先用着。网络,似乎可以等“跑起来”之后再说。 但在实际项目中,很多运维负责人都会有一种事后回看的无力感: 网络并不是突然出问题的,而是一步一步,被阶段性需求推到失控边缘的。 如果你正负责一家机器人公司的广域网建设或运维,可能会发现:真正的挑战,并不发生在量产阶段,而是更早。 为什么要用「阶段视角」来看具身机器人网络? 和传统 IT 系统不同,具身机器人高度耦合物理世界: ● 网络不稳定,不只是“慢一点”; ● 延迟和抖动,会直接改变机器人行为结果;

Unsloth LLaMA Factory 大语言模型微调工具对比比较 主打极致速度与显存优化*适合单卡/少卡快速迭代 代码/低代码、全场景、多模型兼容**

Unsloth 主打极致速度与显存优化,适合单卡/少卡快速迭代;LLaMA Factory 主打零代码/低代码、全场景、多模型兼容,适合新手与企业级一站式微调。下面从核心定位、性能、功能、上手、适用场景等维度详细对比。 一、核心定位与本质区别 维度UnslothLLaMA Factory核心定位单卡/少卡微调加速引擎,专注性能优化一站式微调平台,全流程、全场景、低门槛设计理念用底层算子优化(Triton)榨干GPU性能封装复杂流程,降低使用门槛,覆盖全训练范式与HF关系兼容HF生态,是加速插件(可嵌入其他框架)基于HF生态构建,是完整训练框架开源协议Apache-2.0Apache-2.0 二、性能对比(单卡场景) 指标UnslothLLaMA Factory训练速度比标准HF快 2–5倍(核心优势)接近标准HF,比Unsloth慢显存占用降低 50%–80%(QLoRA下更明显)降低 ~70%

在 Mac Mini M4 上本地跑大模型(Ollama + Llama + ComfyUI + Stable Diffusion | Flux)

在 Mac Mini M4 上本地跑大模型(Ollama + Llama + ComfyUI + Stable Diffusion | Flux)

Mac Mini M4 配备了苹果自家研发的 M1/M2/M4 芯片,具有强大的处理能力,能够支持本地跑一些大模型,尤其是在使用如 Ollama、Llama、ComfyUI 和 Stable Diffusion 这类 AI 相关工具时,性能表现非常好。本教程将指导你如何在 Mac Mini M4 上本地部署并运行这些大模型,涵盖从环境搭建到使用的全流程。 一、准备工作 1. 确保系统更新 确保你的 macOS 版本已更新到最新的版本(例如 macOS 13.0 以上),这将确保兼容性和性能。 安装 Homebrew(macOS 包管理工具) Homebrew 是 macOS 上非常流行的包管理工具,它帮助你方便地安装各种软件。在终端中输入以下命令来安装