阿里云的moltbot机器人使用钉钉的Stream流式接入

注意

  1. 这个不需要工作流
  2. 这个不需要开放外网

具体方法:

1.check代码https://github.com/DingTalk-Real-AI/dingtalk-moltbot-connector

2.package.json增加如下代码

"moltbot": { "extensions": ["./plugin.ts"], "channels": ["dingtalk-connector"], "installDependencies": true }

3.安装插件

moltbot plugins install dingtalk-moltbot-connector

4.增加钉钉配置~/.moltbot/moltbot.json;如果有了进行提花

{ "channels": { "dingtalk-connector": { "enabled": true, "clientId": "dingxxxxxxxxx", // 钉钉 AppKey "clientSecret": "your_secret_here", // 钉钉 AppSecret "gatewayToken": "", // 可选:Gateway 认证 token, opencode.json配置中 gateway.auth.token 的值 "gatewayPassword": "", // 可选:Gateway 认证 password(与 token 二选一) "sessionTimeout": 1800000 // 可选:会话超时(ms),默认 30 分钟 } }, "gateway": { // gateway通常是已有的节点,配置时注意把http部分追加到已有节点下 "http": { "endpoints": { "chatCompletions": { "enabled": true } } } } }

4.重启gateway

moltbot gateway restart

5.登录钉钉开发平台修改机器人配置

   切换成stream,关闭工作流

Read more

Llama-3.2-3B代码审查:基于Java面试题的质量评估体系

Llama-3.2-3B代码审查:基于Java面试题的质量评估体系 1. 当代码审查遇上Java面试题:为什么这个组合特别有效 最近在团队内部做技术分享时,有位刚转行的同事问了一个很实在的问题:“市面上那么多代码审查工具,为什么还要专门用Java面试题来测试模型?”这个问题让我想起自己第一次用Llama-3.2-3B分析一段经典的单例模式实现时的惊讶——它不仅指出了线程安全问题,还顺手给出了三种不同场景下的优化方案,其中一种恰好就是某大厂最新面试题的标准答案。 Java面试题之所以成为检验代码审查能力的黄金标尺,是因为它们天然具备几个关键特质:题目边界清晰但解法多样,既考察基础语法又涉及设计思想,还常常暗藏性能陷阱和并发隐患。比如“如何实现一个线程安全的懒汉式单例”,表面看是考synchronized,实际会牵扯到双重检查锁、volatile关键字、类加载机制甚至JVM内存模型。这种层层嵌套的复杂性,恰恰是检验AI代码理解深度的最佳试金石。 更有趣的是,面试题往往带着明确的业务语境。同样是HashMap,面试官问“为什么HashMap不是线程安全的”和问“在高并发计数场景下如

[特殊字符] WuliArt Qwen-Image Turbo:5分钟快速部署你的AI绘画神器

WuliArt Qwen-Image Turbo:5分钟快速部署你的AI绘画神器 专为个人GPU打造的轻量级文生图引擎来了——无需云服务、不依赖专业运维,一台RTX 4090就能跑出专业级1024×1024高清图像。本文将手把手带你完成从镜像拉取、服务启动到生成第一张赛博朋克街景的全流程,全程5分钟,零调试,小白友好。 1. 为什么你需要WuliArt Qwen-Image Turbo? 1.1 它不是另一个“跑不起来”的文生图模型 你可能试过不少本地文生图方案:显存爆满、黑图频出、生成一张图要等三分钟、分辨率糊成马赛克……而WuliArt Qwen-Image Turbo是少数真正为消费级GPU用户设计的落地型工具。它不堆参数,不拼大模型,而是用精准的工程优化解决真实痛点: * 不再黑图:BFloat16原生支持,数值溢出问题彻底消失 * 不再卡顿:4步推理完成生成,比传统SDXL快5–10倍 * 不再换卡:24GB显存(如RTX 4090)即可流畅运行1024×1024输出 * 不再折腾:开箱即用Web界面,

合规为基,场景为锚:文心一言API接入的备案要求与深度场景合规解析

合规为基,场景为锚:文心一言API接入的备案要求与深度场景合规解析

在做备案咨询的时候,我被问得最多的问题就是“我们接了文心一言的API,到底要不要去网信办备案?” 很多企业的心态很微妙:不备案怕被下架,去备案又觉得流程繁琐像剥层皮。其实,备案的核心不在于你用了谁的模型,而在于你怎么用、给谁用。 尤其是接入文心一言这种通过国家网信办生成式人工智能服务备案的头部大模型时,很多老板容易产生一个误区:“底座都合规了,我用一下还需要备案?” 答案没那么简单。今天我们抛开枯燥的法条,直接从实操角度,从文心一言这类的合规边界掰开了讲讲。 一、 政策红线 我国对算法的监管逻辑其实很直白:只要你的服务能对公众产生影响,尤其是能生成内容、引导舆论,那就必须管。这并非针对某一家企业,而是对互联网信息服务的底层约束。 按照《生成式人工智能服务管理暂行办法》,提供具有舆论属性或者社会动员能力的生成式人工智能服务的,应当按照国家有关规定开展安全评估,并履行备案手续。如果企业产品未经备案直接上线,且具有交互功能的服务,一旦被监管抽查发现,面临的不仅是应用下架,还可能涉及行政处罚,甚至影响企业主体的信用评级。 二、 真实场景的合规判定 与其死磕政策,不如对号入座看看你

Llama-Factory支持Flash Attention了吗?提升训练速度的关键优化

Llama-Factory 支持 Flash Attention 了吗?训练加速的关键路径 在大模型时代,训练效率直接决定了一个团队能否快速迭代、验证想法。尤其是在消费级显卡上微调7B甚至13B级别的模型已成为常态的今天,每一毫秒的优化都可能意味着从“跑不动”到“跑得通”的跨越。 而在这条通往高效微调的路上,有两个名字频频出现:一个是 Flash Attention —— 那个号称能让注意力计算提速2–4倍的“核武器”;另一个是 Llama-Factory —— 开源社区中备受欢迎的一站式微调框架,以其极低的使用门槛和强大的兼容性俘获了无数开发者的心。 于是问题来了:当你在 Llama-Factory 里启动一次 LoRA 训练时,背后的注意力层真的用上了 Flash Attention 吗?还是说你还在默默承受传统实现带来的显存墙与慢速内核? 答案很明确:可以支持,但需要正确配置。 我们先回到问题的本质——为什么需要 Flash Attention? Transformer 模型的核心在于自注意力机制,但它的计算方式天生存在瓶颈。标准实现中,QK^