【有手就行】:为QQ群快速接入下载本子的JM机器人

【有手就行】:为QQ群快速接入下载本子的JM机器人

前言

广大漫画爱好者的福音来了,由于国内通过正常手段访问不了JM,,所以就有diao大的弄了个JM爬虫,专门用来下载本子等操作;但是,在这个随时随地都离不开手机的年代,如果不能直接通过手机快速获取,那就等于零。所以它来了,JM机器人,也是个diao大的整合现有技术搞出来的,感兴趣的可以给个Star(ncatbotPlugin)。所以,我只个代码的搬运工,给大家简单介绍下如何使用

先看结果

在这里插入图片描述

环境准备

  • GitHub
  • Python3.7+(不知道怎么安装Python的建议去百度一下,只需要会安装即可)
  • 云服务器(单纯自己学习可以不要)

开整

万事具备,直接开整

1、先Clone JM机器人项目

git clone https://github.com/FunEnn/ncatbotPlugin.git 

2、安装依赖

进入到项目根目录,安装必要的python模块依赖

cd ncatbotPlugin pip install -r requirements.txt 

3、修改配置

依赖安装好后,就到了最重要的一步了,打开根目录下main.py修改配置,填写拿来充当JM机器人的QQ号(最好是小号,这样就算违规被封也没太大影响)及管理员QQ号(大号)

bot.run( bt_uin="123456",# 小号 root="678910"# 大号)

4、运行项目

最后,把项目跑起来就ok了,在根目录打开cmd黑屏框,输入启动命令

python main.py 
  1. 启动过程中会提示下载安装napcat,按照提示下载即可
  2. napcat安装好后,会输出一个二维码提供扫码登录(小号),或者直接访问localhost:6099/webui,也可以扫码登录(手机端扫码登录后,可以选择后面默认登录不需要扫码,后续再重新启动机器人就不再需要扫码了,会自动登录)

登录成功后,就没什么操作了,等待启动完成吧

在这里插入图片描述


我这个已经扫过码了,所以图上没看到二维码

测试

  1. 目前测试单人聊天可以正常回复并下载
  2. 4人群聊试过可以,只需要发命令(/菜单、/jm 123456)不需要@
  3. 但是800多人群聊/jm命令没有成功,其他命令不影响

最后

本文涉及到所有的技术及方法,只适用于个人技术学习使用,请勿传播,请确保遵守相关法律法规,合理使用各项功能;

Read more

第三章-提示词-解锁Prompt提示词工程核销逻辑,开启高效AI交互(10/36)

第三章-提示词-解锁Prompt提示词工程核销逻辑,开启高效AI交互(10/36)

摘要:Prompt 提示词工程通过设计指令、上下文、输入与输出格式,引导大语言模型精准完成任务,并依托“核销流程”(解析-拆解-理解-生成-验证)确保结果合规。文章系统讲解提示词编写策略、幻觉与输出不匹配的应对方法,展示内容生成、数据分析等场景案例,并展望自动提示词生成、多模态融合等未来趋势。 引言 在人工智能飞速发展的当下,大语言模型(LLM)如 ChatGPT、文心一言等,已经深度融入到我们的生活和工作的各个领域。而 prompt 提示词工程,作为与这些大语言模型交互的关键技术,正逐渐成为 AI 领域中不可或缺的重要环节。一个精心设计的 prompt,能够引导模型生成高质量、符合需求的输出,无论是文本创作、智能问答,还是代码生成等任务,提示词的质量都直接影响着最终的效果 。 在实际应用中,随着对提示词使用的不断深入,我们会面临一个重要的问题 —— 核销逻辑。核销逻辑在 prompt 提示词工程中起着至关重要的作用,它关乎着资源的有效利用、成本的控制以及系统的稳定运行。那么,这个神秘的核销逻辑究竟是什么?

LLMs:2024-2025 年旗舰 LLM 架构演进解读—大模型的“稀疏革命”与设计哲学:从 DeepSeek 到 Mistral(以及 Gemma、Llama、Qwen、Kimi)的 —— 探索

LLMs:2024-2025 年旗舰 LLM 架构演进解读—大模型的“稀疏革命”与设计哲学:从 DeepSeek 到 Mistral(以及 Gemma、Llama、Qwen、Kimi)的 —— 探索

LLMs:2024-2025 年旗舰 LLM 架构演进解读—大模型的“稀疏革命”与设计哲学:从 DeepSeek 到 Mistral(以及 Gemma、Llama、Qwen、Kimi)的 —— 探索 MoE 的“稀疏革命”、MLA 与 GQA 的 KV-cache 优化、sliding-window 与归一化放置的工程利弊—模型容量、推理成本与实战部署(tokenizer、FlashAttention、移动端 PLE)之间的权衡建议与实践指导 导读:这篇文章是一篇面向工程实践与研究者的综合性综述,横向比较了 2024–2025 年期间若干代表性开源与工业级大语言模型(如 DeepSeek 系列、Mistral、Gemma、Llama、Qwen、

【GitHub项目推荐--Toonflow AI短剧工厂:一站式AI短剧创作平台】

简介 Toonflow AI短剧工厂是一个革命性的AI驱动短剧创作平台,由HBAI-Ltd团队开发。该项目致力于将小说文本智能转化为完整的短剧视频,实现从文字到影像的全流程自动化。通过集成先进的大语言模型、图像生成和视频合成技术,Toonflow让用户只需动动手指,就能将小说秒变剧集,创作效率提升10倍以上。 核心价值: * 全流程AI化:从文本到角色,从分镜到视频,0门槛完成短剧创作 * 效率革命:创作效率提升10倍+,大幅缩短制作周期 * 智能转换:自动将小说转化为结构化剧本和视觉内容 * 开源免费:基于AGPL-3.0许可证,完全开源且免费使用 技术定位:Toonflow填补了文学创作与影视制作之间的技术鸿沟。通过标准化的AI工作流,它为内容创作者提供了从创意到成品的完整解决方案,降低了视频制作的专业门槛。 主要功能 1. 智能角色生成 系统自动分析原始小说文本,智能识别并生成角色设定。生成内容包括角色的外貌特征、性格特点、身份背景等详细信息。为后续剧本创作和画面设计提供可靠的角色基础。支持批量角色生成,快速构建完整的角色库。 2. 自动化剧本生成 基

DeerFlow 2.0实战指南:生产级AI Agent框架的Docker化部署与并行编排

DeerFlow 2.0实战指南:生产级AI Agent框架的Docker化部署与并行编排

前言:为什么要选择DeerFlow 2.0? 最近字节跳动开源的DeerFlow 2.0在GitHub上火了,几天时间收获45,000+星。作为一名技术开发者,我第一时间研究了这个项目。经过深入测试,我发现它解决了传统AI Agent框架在生产环境中的几个关键痛点。 本文将从工程实践角度,带你完整掌握DeerFlow 2.0的核心功能和部署方法。 一、核心技术架构解析 1.1 Docker隔离机制 传统框架的问题:多个任务共享进程,一个任务崩溃影响全局。 DeerFlow 2.0的解决方案:每个任务独立Docker容器。 核心代码实现: # 任务容器创建函数defcreate_task_container(task_id, skill_config): container = docker_client.containers.run( image="deerflow-agent-base:latest", command=