AI与单片机之:STM32上运行AI大模型的四种方案!(含案例,建议收藏)

AI与单片机之:STM32上运行AI大模型的四种方案!(含案例,建议收藏)

前几天小编写了2篇文章

“为什么AI会改变单片机的未来?

单片机上如何运行AI?单片机如何“学会思考”之TinyML崛起!(含案例,建议收藏)

引起了非常多的留言、关注和加群讨论。但是,仍然有读者朋友给小编留言,能否整理一些关于比较常用芯片比如STM32实用AI大模型的案例。为了满足粉丝朋友的诉求,小编整理了“在STM32单片机上运行AI大模型的”真实案例。

从粉丝的一个问题引出本文的思考:AI 模型能跑在 STM32 上吗?

一:先说结论

先说结论:不仅能跑,还一共有四种方案。

方案一:STM32官方提供的 STM32Cube.AI(X-CUBE-AI)

其实原理是我们把在 PC 上训练好的神经网络自动转换成可在 MCU 上运行的 C 库;然后在自己的软件/代码工程中调用已经编译产生的C库。

图片

方案二:直接用 TensorFlow Lite Micro(TFLM)+ CMSIS-NN 在 STM32 上做端侧推理。

TensorFlow是由谷歌开发并开源的一个机器学习库,它支持模型训练和模型推理。这里提到的TFLM,全称是TensorFlow Lite for Microcontrollers,翻译过来就是“针对微控制器的TensorFlow Lite”。

它适用于微控制器和其他一些仅有数千字节内存的设备。 

可以直接在“裸机”上运行,不需要操作系统支持、任何标准 C/C++ 库和动态内存分配。核心运行时在 Cortex M3 上运行时仅需16KB,加上足以用来运行语音关键字检测模型的操作,也只需 22KB 的空间。

方案三:NanoEdge AI Studio

对于“异常检测/分类/回归”这类小模型,还可以用 NanoEdge AI Studio 生成适配 STM32 的库。

图片

Nanoedge AI Studio是用于STM32部署边缘AI的软件,Studio可生成四种类型的库:异常检测、单分类、多分类、预测。它支持所有类型的传感器,所生成的库不需要任何云连接,可以直接在本地学习与部署,支持STM32所有MCU系列。

方案四:STM32N6 + NPU

STM32N6 这代芯片把 NPU(Neural-ART)直接塞进 MCU,峰值可达百亿次级别运算,面向更重的视觉/音频任务——这等于把“在 STM32 上跑 AI”从“小巧求稳”,推进到“更大模型也能实时”。

图片

二:四种方案的对比?该怎么选择?

路线

适用任务

优点

注意点

STM32Cube.AI(X-CUBE-AI)

小到中等 CNN/MLP、KWS、人形检测、回归/分类

图形化/命令行一体,自动把模型转成优化的 C 代码;新版本支持 ONNX 量化网络与在线开发/板农场验证

模型算子需被支持;建议 Int8 量化;结合板端性能页面做预估

TFLite Micro + CMSIS-NN

经典 TinyML 示例(hello_world、kws、gesture、person_detection)

上面文章中提到过的

开源、可控;CMSIS-NN 将核函数映射到 Cortex-M,常见可获 4–5× 提速/能效改善

需要自己选/裁剪算子与内存;工程化工作量稍大

NanoEdge AI Studio

异常检测、简单分类/回归(工业声音、振动等)

向导式生成库,数据量要求低,上手快

黑盒程度更高,适合追“快落地”的项目

STM32N6 + NPU

更重的视觉/音频(目标/人形、语音场景)

MCU 等级首次具备“类 MPU”级别的 AI 推理吞吐;官方工具链直接支持

面向新芯片与生态,需对齐支持的模型/算子与工具

三:直接上干货:可复制的案例分享

方案1案例:STM32 AI Model Zoo(图像分类等多任务)

图片

STM32 AI 模型库(Model Zoo)是一个针对 STM32 微控制器优化的可以直接用于设计参考的机器学习模型集合。

(1)它包含大量面向应用的模型,这些模型通常可以直接用于再训练(retraining)。

(2)提供在标准数据集上已经预训练好的模型。

(3)附带脚本,用以简化在用户自己数据集上对任一模型进行再训练、量化(quantization)、评估或基准测试(benchmarking)的过程。

(4)提供将用户 AI 模型自动生成对应应用端代码(部署代码)的示例。

关注我:回复“STM32 AI Model Zoo”可以获取到小编已经为读者朋友准备好的下载链接。

下面是针对AI模型库的案例集:(字体太小可以将下面图片保存到自己手机中放大查看)。

图片

方案2案例:TensorFlow Lite Micro(配 CMSIS-NN)

STM32 TFLM Demos(KWS/手势/人形等)

图片

上面的案例中包含了最基础的 “Hello World”,以及语音命令识别(Micro Speech)、手写数字分类(MNIST)等工程模板,可以从零起步逐层提升

我们学习在单片机中使用AI的能力。

关注我:回复“stm32-tflm-demo”可以获取到小编已经为读者朋友准备好的下载链接。

方案3案例:NanoEdge AI Studio

NanoEdge 数据采集 + 在线训练 + 上板推理(电流/振动/声音)

图片

这个案例可以实现在STM32平台上实现数据记录(datalogging) 功能,并集成 NanoEdge AI 库用于异常检测 / 模型学习 / 推理。包括示例C代码、NanoEdge AI 所需库、硬件连接说明、多个开发板与传感器的组合支持。

关注我:回复“stm32ai-nanoedge”可以获取到小编已经为读者朋友准备好的下载链接。

方案4案例:STM32(集成 NPU,如 STM32N6)

这个案例是应用在 STM32N6 系列开发板的入门级图像分类示例工程。它展示了如何利用 STEdgeAI 工具将量化后的AI模型部署到 STM32N6 平台上,并通过Neural-ART NPU 加速器实现高效推理。

包含了完整的图像采集、预处理、分类显示流程,可在STM32N6570-DK

 等硬件上运行。

通过该示例,开发者可快速上手 STM32N6 的 AI 部署流程,体验端到端的图像分类应用,从模型生成到实时推理一站式实现。

关注我:回复“stm32 N6”可以获取到小编已经为读者朋友准备好的下载链接。

可以加小编的微信,将上面所有案例一次性共享给您。

推荐几个小编关注的学习AI和大模型的公众号:

Read more

AirSim无人机仿真入门(一):实现无人机的起飞与降落

AirSim无人机仿真入门(一):实现无人机的起飞与降落

概述: 安装好所需要的软件和环境,通过python代码控制无人机进行起飞和降落。 参考资料: 1、知乎宁子安大佬的AirSim教程(文字教程,方便复制) 2、B站瑜瑾玉大佬的30天RL无人机仿真教程(视频教程,方便理解) 3、AirSim官方手册(资料很全,不过是纯英文的) AirSim无人机仿真入门(一):实现无人机的起飞与降落 * 1 安装AirSim * 1.1 参考教程 * 1.2 内容梳理 * 1.3 步骤总结 * 2 开始使用 AirSim * 2.1 参考教程 * 2.2 内容梳理 * 2.3 步骤总结 * 3 撰写python控制程序 * 3.1 参考教程 * 3.2 内容梳理

基于springboot+vue的无人机共享管理系统(源码+论文+部署+安装)

感兴趣的可以先收藏起来,还有在毕设选题,项目以及论文编写等相关问题都可以给我留言咨询,我会一一回复,希望可以帮到大家。 一、程序背景 随着无人机技术飞速发展,其应用场景已拓展至农业、物流、测绘、影视制作等多个领域,市场规模持续扩大。传统无人机管理模式高度依赖人工操作,存在管理效率低下、信息更新不及时、资源调度不合理等问题,不仅降低了无人机使用效率,还增加了管理成本。同时,无人机共享经济兴起,用户对无人机租赁、维修、信息查询等多样化需求日益增长,而现有国内外无人机管理系统多存在功能单一、智能化与便捷性不足的缺陷,在用户体验、资源调度及数据管理方面难以满足实际需求。在此背景下,基于Spring Boot + Vue技术栈开发一款高效、智能、便捷的无人机共享管理系统,成为推动无人机行业数字化转型、适配共享经济发展的必然需求。 二、程序功能需求 (一)用户端功能 1. 基础操作:用户登录系统,完成身份验证后进入功能界面; 2. 核心业务:浏览并查看无人机详细信息(型号、性能参数、使用状态等)

3DMAX VR渲染器局部渲染设置教程

3DMAX VR渲染器局部渲染设置教程

VR 渲染器局部渲染设置 VR 渲染器的局部渲染功能灵活适配多种场景(尤其全景图),操作步骤如下: 1. 调出渲染设置面板:在 3DMAX 软件中,直接按下快捷键「F10」,快速打开渲染设置窗口(也可通过顶部菜单栏「渲染」→「渲染设置」手动调出)。 2. 确认渲染器类型:在渲染设置面板中,切换到「指定渲染器」选项卡,确保当前选定的渲染器为「V-Ray 渲染器」(若未选中,点击下拉菜单切换即可)。 1. 打开 VR 帧缓冲器:切换到「V-Ray」选项卡,找到「帧缓冲器」设置项,勾选「启用内置帧缓冲器」(部分版本默认开启),点击右侧「显示 VFB」按钮,调出 VR 帧缓冲窗口。 1.

LangGraph工具调用实战:手把手教你实现ReAct搜索机器人

LangGraph工具调用实战:手把手教你实现ReAct搜索机器人

## 前言 在前两篇文章中,我们分别学习了 LangGraph 的快速入门和 StateGraph 基础。本文将带你进入 LangGraph 的进阶领域——**工具调用(Tool Calling)**。通过为聊天机器人添加 Tavily 搜索引擎,你将掌握 ReAct(Reasoning + Acting)模式的完整实现,让 AI 能够主动调用外部工具获取实时信息。 --- ## 一、核心概念 ### 1.1 什么是工具调用 工具调用(Tool Calling)是 LLM 的重要能力,它允许 AI: 1. **推理(Reasoning)**:理解用户需求,判断需要什么信息 2. **行动(Acting)**:调用外部工具获取数据 3. **观察(Observation)