TinyML:边缘设备上的轻量化 AI 模型开发与部署
摘要
TinyML作为边缘计算与人工智能融合的新兴技术,旨在将机器学习模型部署到资源极度受限的微控制器上。本文系统阐述了TinyML的技术体系、核心挑战、关键框架及应用案例。研究表明,通过模型量化、剪枝、知识蒸馏等压缩技术,结合专用推理框架(如TensorFlow Lite Micro),能够在保持模型精度的同时,将内存占用降低至KB级别,功耗控制在毫瓦级别。TinyML技术为物联网设备上的实时智能推理提供了可行方案,在语音唤醒、视觉检测、工业预测性维护等领域展现出广阔应用前景。未来,随着算法优化与硬件协同设计的深入,TinyML将在超低功耗AI领域发挥更为关键的作用。

1 引言
随着物联网技术的迅猛发展,全球已部署的微控制器数量超过2500亿个,并且每年新增约400-500亿个。这些设备遍布从智能家居到工业监控的各个领域,产生了海量的实时数据。传统的云计算处理模式需要将数据传输至云端处理,面临延迟高、隐私泄露风险、网络依赖性强等问题。在此背景下,TinyML(Tiny Machine Learning)应运而生,它代表了机器学习模型在资源极度受限的边缘设备上运行的新范式。
TinyML是一系列技术和方法的总称,使得机器学习模型能够在内存仅有几十至几百KB、功耗低至毫瓦级别的微控制器(MCU)上执行推理任务。与传统的云端机器学习相比,TinyML具有显著优势:数据在本地处理,避免了敏感信息传输,增强了隐私保护;推理过程在设备端完成,实现了实时响应;减少了数据远程传输带来的能耗开销。这些特性使得TinyML在对延迟、功耗和隐私要求严格的场景中具有不可替代的价值。
典型的TinyML应用场景包括但不限于:语音唤醒词检测(如"Hey Siri"等智能助手激活)、视觉唤醒词识别(基于摄像头的人物检测)、工业设备的预测性维护(通过振动分析预测故障)、以及健康监测(可穿戴设备的活动识别)等。这些应用共同特点是需要在资源受限的设备上实现低功耗、实时的智能决策。
尽管TinyML应用场景广泛,但在微控制器上部署机器学习模型面临严峻挑战。主流微控制器(如ARM Cortex-M系列)通常仅具备有限的计算资源:CPU频率在50-200MHz之间,SRAM内存不超过512KB,闪存容量也在1-4MB范围内。在这样的约束条件下,运行传统机器学习模型几乎不可能。以典型的卷积神经网络为例,原始模型可能占用几MB至几十MB的空间,远远超过微控制器的存储能力。因此,需要一套系统的模型优化与压缩方法,以及专为资源受限环境设计的推理引擎。
本文从技术角度系统分析TinyML的关键技术环节。第二章深入探讨TinyML技术体系与核心挑战;第三章详细介绍主流TinyML框架与工具链;第四章通过典型应用案例验证技术可行性;第五章展望未来发展趋势;第六章总结全文。
2 TinyML技术体系与核心挑战
在微控制器上部署机器学习模型面临一系列技术挑战,这些挑战主要源于硬件资源的严格限制。成功实现TinyML应用需要从模型压缩、硬件优化和软件框架等多个层面进行系统性创新。本节将深入分析TinyML技术体系中的关键问题及其解决方案。
2.1 资源约束与优化策略
微控制器环境与传统的计算平台存在本质区别。嵌入式平台通常缺乏动态内存管理功能,没有malloc()/free()等标准库函数,所有内存分配必须是静态或基于预分配池的。同时,这些平台没有虚拟内存机制,无法提供内存保护功能,一个错误的指针操作就可能导致整个系统崩溃。许多嵌入式系统甚至没有完整的操作系统,或者只运行极简的实时操作系统(RTOS),缺乏线程调度、进程隔离等高级功能。
在这种苛刻条件下,TinyML框架需要采用特殊的内存管理策略。以TensorFlow Lite Micro(TFLM)为例,它采用了双栈内存分配策略:全局张量缓冲区被划分为三个逻辑区域,头部堆栈从低地址向上增长用于存储函数生命周期内的对象,尾部堆栈从高地址向下增长用于存储解释器生命周期内的对象,中间空间用于临时分配。通过分析每个张量的生命周期,并采用类似装箱算法的内存规划策略,TFLM能够有效重用内存空间,将总内存需求减少约60%。
表1:典型微控制器资源配置对比
| 硬件平台 | 处理器架构 | 时钟频率 | SRAM内存 | 闪存容量 | 典型功耗 |
|---|---|---|---|---|---|
| Arduino Uno | ATMega328P | 16 MHz | 2 KB | 32 KB | 数十毫瓦 |
| STM32H747 | ARM Cortex-M7 | 480 MHz | 1 MB | 2 MB | 数百毫瓦 |
| Raspberry Pi Pico | RP2040 | 133 MHz | 264 KB | 2 MB | 约100毫瓦 |
| SparkFun Edge | Ambiq Apollo3 | 96 MHz | 384 KB | 1 MB | 毫瓦级 |
除了内存限制外,计算能力也是主要瓶颈。典型微控制器的CPU频率在50-200MHz范围内,理论峰值性能约为48-200 MOPS(百万次操作/秒)。假设需要实现10 FPS的实时推理,那么每帧可用的操作数仅为4.8-20×10^6次操作。这意味着即使是轻量级的MobileNet v1模型(第一层就需要约1080万次操作),也接近或超过了单帧的计算预算。因此,需要针对特定硬件平台优化操作实现,充分利用SIMD指令和专用加速器。
2.2 模型压缩关键技术
在严格的内存和计算约束下,模型压缩是使深度学习模型能够在微控制器上运行的关键。主要的模型压缩技术包括量化、剪枝和知识蒸馏,这些技术可以单独或组合使用,以显著减小模型大小和计算需求。
量化是将模型参数从高精度表示(如32位浮点数)转换为低精度表示(如8位整数)的过程。均匀量化的数学表示如下:
给定权重 ( w \in [w_{\text{min}}, w_{\text{max}}] ) ,使用 ( b ) 位量化,量化步长为:
[
\Delta = \frac{w_{\text{max}} - w_{\text{min}}}{2^b - 1}
]
量化函数为:
[
Q(w) = \text{round}\left(\frac{w - w_{\text{min}}}{\Delta}\right) \times \Delta + w_{\text{min}}
]
量化误差的期望值为零,方差为 ( \sigma_q^2 = \frac{\Delta^2}{12} ) 。对于神经网络的前向传播,量化引入的误差会逐层累积。研究表明,8位量化可以将模型大小减少75%,同时保持相对较高的精度。
剪枝通过移除神经网络中不重要的连接来减少参数数量。最优脑损伤(OBD)算法使用泰勒展开来估计剪枝的影响。损失函数的变化可以近似为:
[
\delta E = \sum_i g_i \delta w_i + \frac{1}{2}\sum_i h_{ii}(\delta w_i)^2 + \frac{1}{2}\sum_{i \neq j} h_{ij}\delta w_i \delta w_j + O(|\delta w|^3)
]
其中 ( g_i = \frac{\partial E}{\partial w_i} ) 是梯度, ( h_{ij} = \frac{\partial^2 E}{\partial w_i \partial w_j} ) 是Hessian矩阵元素。通过剪枝,模型可以从密集连接变为稀疏连接,大小可减少9-13倍。
知识蒸馏通过训练一个小型学生模型来模仿大型教师模型的行为。最近的研究探索了将大型Transformer模型的知识蒸馏到更紧凑的Mamba模型中,后者采用状态空间架构,在序列建模任务上表现出色。这种方法的优势在于,学生模型可以学习教师模型的推理过程,而不仅仅是输出分布,从而在保持性能的同时显著减小模型规模。
表2:模型压缩技术效果对比
| 压缩技术 | 压缩比率 | 精度损失 | 计算需求 | 适用场景 |
|---|---|---|---|---|
| 8位量化 | 3-4倍 | 低(1-3%) | 低 | 大多数模型,支持硬件加速 |
| 混合精度量化 | 2-3倍 | 极低(<1%) | 中 | 精度敏感型应用 |
| 结构化剪枝 | 5-10倍 | 中(3-10%) | 中 | 计算密集型层 |
| 知识蒸馏 | 2-5倍 | 中高(5-15%) | 高 | 复杂模型简化 |
MINUN框架采用了更为精细的混合精度量化方法,其HAUNTER算法能够智能地为每个张量分配合适的位宽。该算法通过三阶段过程:预处理阶段确定数据相关参数,热图生成阶段计算每个张量的可提升性分数,提升阶段基于记忆限制进行位宽分配。这种方法能够在保持模型精度的同时,实现更高效的内存利用。
2.3 新兴数字表示法
除了传统的定点量和浮点数表示外,新兴的数字表示法如Posit格式在TinyML领域展现出潜力。与标准浮点数相比,Posit格式提供了更好的动态范围和精度,特别适合低精度计算。MINUN是第一个参数化于任意数字表示的TinyML框架,支持包括Posit在内的多种数字格式。
这些创新技术共同构成了TinyML的基础,使得在严格受限的设备上部署智能应用成为可能。通过综合运用多种压缩技术和优化策略,TinyML在模型大小、推理速度和能耗之间达到平衡,满足边缘计算的实际需求。
3 TinyML关键框架与工具
TinyML生态系统的发展离不开一系列专用框架和工具的支持。这些框架提供了从模型训练、优化到部署的全栈解决方案,极大地降低了在微控制器上部署机器学习模型的难度。本节将详细介绍主流的TinyML框架及其技术特点。
3.1 主流框架技术分析
TensorFlow Lite Micro 是当前最广泛采用的TinyML推理框架,其设计哲学体现了极简主义和模块化思想。TFLM采用了解释器而非代码生成的执行模型,这种设计权衡了灵活性和性能。解释器负责加载描述机器学习模型的数据结构,并在运行时解释这些数据来执行模型。与代码生成方法相比,解释器方法的优势在于:可以在不重新编译的情况下更新模型;多个模型可以共享相同的操作实现;更新框架不需要重新导出所有模型。
TFLM的模块化架构允许硬件供应商提供平台特定的优化。框架通过目录结构组织不同的实现,包括参考实现、ARM CMSIS-NN优化、Xtensa DSP优化等。构建系统根据目标平台自动选择适当的实现,允许开发者从参考实现开始,然后逐步优化关键操作。这种开放式架构促进了硬件厂商的参与,形成了良性生态。
MINUN 框架针对TinyML的三个关键挑战提供了创新解决方案:数字表示参数化、位宽分配优化和内存碎片管理。MINUN采用HAUNTER算法进行智能位宽分配,该算法的时间复杂度为 (O(\log N \times D \times T_{\text{execution}} + N \times \log N \times T_{\text{codegen}})),相比之前的Shiftry算法的 (O(N \times D \times T_{\text{execution}} + N \times T_{\text{codegen}})) 有显著改进。对于内存管理,MINUN将问题编码为装箱问题,并使用Knuth的算法X求解,保证了最优解,尽管在最坏情况下需要指数时间。
AI-ANNE 框架专注于将预训练神经网络模型迁移到微控制器上。该框架在MicroPython中重新实现了神经网络的核心组件,包括神经元、层、密度和激活函数。这使得在TensorFlow和Keras等高性能框架上训练的模型能够在Raspberry Pi Pico等微控制器上运行。AI-ANNE采用分层架构,输入层直接接收原始数据,隐藏层负责提取抽象特征,输出层产生最终预测结果。
表3:主流TinyML框架对比
| 框架特性 | TensorFlow Lite Micro | MINUN | AI-ANNE | STM32Cube.AI |
|---|---|---|---|---|
| 核心架构 | 解释器基础 | 混合精度编译器 | MicroPython重实现 | 代码生成 |
| 内存管理 | 双堆栈分配 | 最优装箱算法 | 动态分配 | 静态分配 |
| 量化支持 | 8/16位整型 | 任意位宽、Posit | 浮点为主 | 8/16位整型 |
| 硬件支持 | 跨平台(ARM/RISC-V等) | ARM微控制器 | Raspberry Pi Pico | STM32系列 |
| 模型格式 | TensorFlow Lite | Shiftry DSL | Keras/TensorFlow | ONNX |
3.2 模型开发与部署流程
TinyML模型的开发遵循特定的工作流程,与传统机器学习项目有显著差异。典型的开发流程包括以下几个阶段:
数据采集与预处理阶段需要在真实环境中收集传感器数据。由于微控制器的资源限制,原始数据通常需要经过降采样、滤波和特征提取等处理,以降低数据维度。例如,在音频关键词检测应用中,原始音频信号可能通过短时傅里叶变换转换为频谱图:
[
X(m,k) = \sum_{n=0}^{N-1} x[n+mH]w[n]e^{-j2\pi kn/N}
]
其中 ( w[n] ) 是窗函数, ( H ) 是跳跃大小, ( k ) 是频率索引。这种转换将时域信号转换为时频表示,更适合神经网络处理。
模型训练通常在拥有充足资源的开发环境中进行,可能使用云资源或高性能工作站。一个重要原则是训练时考虑目标平台的限制,例如使用真实设备采集的数据进行训练,以避免领域适配问题。在训练过程中,可以结合知识蒸馏技术,让小型学生模型学习大型教师模型的行为。
模型转换与优化阶段将训练好的模型转换为适合微控制器的格式。TensorFlow Lite转换器会执行一系列优化,包括常量折叠、批归一化折叠、算子融合等。此外,还会应用量化技术,将浮点权重转换为低精度表示,显著减小模型大小。
部署与推理阶段将优化后的模型加载到微控制器上执行。TFLM的解释器会管理模型的生命周期,包括内存分配、张量管理和操作调度。在推理过程中,框架会尽可能重用内存空间,并利用硬件特定加速来提高效率。
整个流程形成了完整的开发闭环,使得开发者能够高效地在资源受限设备上部署智能应用。随着工具链的成熟,TinyML的开发体验正在不断改善,降低了嵌入式机器学习应用的门槛。
4 TinyML应用案例研究
TinyML技术已经在多个领域展现出实际价值,其应用案例不仅验证了技术的可行性,还揭示了未来发展方向。本节通过分析典型应用场景,探讨TinyML在实际部署中的技术细节与性能表现。
4.1 语音唤醒词检测
语音唤醒词检测是TinyML最成功的应用之一,广泛用于智能音箱、智能手机等设备的语音助手激活。这类应用通常需要在设备上持续监听环境音频,并检测特定的关键词如"Hey Siri"或"OK Google"。
典型的唤醒词检测系统包含多个组件:音频输入设备(麦克风)、特征提取模块、神经网络推理引擎和命令识别模块。系统持续捕获环境音频,通过音频提供商模块将原始音频转换为频谱图特征,再由TFLite解释器执行训练好的神经网络模型,最后通过识别命令模块应用时间平滑和置信度阈值来减少误报。
在技术实现上,Google Hotword模型是一个典型案例。该模型体积小巧,仅需约12.12KB的持久内存和680字节的非持久内存,总内存占用约为12.80KB。这种紧凑的模型大小使得它能够在资源极度受限的设备上运行,同时保持高精度和低延迟。
性能评估数据显示,在Cortex-M4处理器上,优化后的唤醒词检测模型仅需4,857,700周期,相比参考实现实现了约4倍的加速。这一优化主要来自于针对ARM架构的CMSIS-NN库的使用,该库利用SIMD指令和内存访问模式优化,显著提升了推理效率。
4.2 视觉唤醒词识别
视觉唤醒词(Visual Wake Words)检测是另一个重要的TinyML应用场景,用于基于摄像头的人物检测。这类应用使设备能够在检测到特定视觉模式(如人脸)时激活,从而节省能源并保护隐私。
Visual Wake Words(VWW)数据集上的实验显示,一个优化后的卷积神经网络可以在仅占用26.50KB持久内存和55.30KB非持久内存(总计81.79KB)的情况下,实现准确的实时人物检测。这一模型大小使得它能够在具有256KB RAM的微控制器上顺利运行。
在Sparkfun Edge平台上,经过专用优化的VWW模型仅需4,857,700周期,而参考实现需要18,990,800周期。这一近4倍的性能提升来自于多方面的优化:首先,框架使用了深度可分离卷积代替标准卷积,将计算复杂度从 ( D_K \times D_K \times M \times N \times D_F \times D_F ) 降低到 ( D_K \times D_K \times M \times D_F \times D_F + M \times N \times D_F \times D_F ) ;其次,利用了8位整数量化减小模型大小并加速推理;最后,通过内存规划算法最大化内存重用,减少峰值内存使用。
4.3 工业预测性维护
工业环境中的预测性维护是TinyML的重要应用领域。通过在有振动源的工业设备上部署微控制器和加速度计,可以实时分析机械振动模式,预测潜在故障,避免生产中断。
在这一应用场景中,TinyML模型需要处理来自加速度计的时间序列数据,检测异常振动模式。由于工业环境通常没有可靠的网络连接,且数据量巨大,云端处理不现实,设备端推理成为理想选择。研究表明,通过精心设计的卷积神经网络或循环神经网络,可以在极低功耗下实现准确的故障检测。
一个典型的工业预测性维护系统可能包含以下组件:数据采集模块(采样率通常为1-10kHz)、预处理模块(滤波、特征提取)、神经网络推理引擎和决策模块。整个系统可能需要在32KB RAM和128KB闪存的资源约束下运行,平均功耗不超过毫瓦级别。
4.4 室内定位与导航
室内定位是TinyML的一个新兴应用领域。传统室内定位方法依赖远程处理设备传输的数据,而TinyML使得在低功耗边缘设备上直接进行定位计算成为可能。
最新研究探索了基于Transformer和Mamba模型的室内定位方案。通过模型量化和知识蒸馏技术,研究人员成功将大型模型压缩到适合微控制器部署的规模。量化后的Transformer模型可以在64KB RAM约束下高效运行,而更为紧凑的Mamba模型甚至在32KB内存限制下也能保持良好的定位精度。
这些室内定位系统通常利用来自Wi-Fi、蓝牙或惯性测量单元(IMU)的信号进行位置估计。通过在设备上直接处理敏感的位置数据,TinyML方案增强了隐私保护,同时降低了网络传输的能耗和延迟。这类应用在医疗健康领域尤其有价值,可以实现对患者位置的实时监测,同时最小化能耗。
表4:TinyML应用案例性能对比
| 应用场景 | 模型类型 | 内存占用 | 精度指标 | 功耗水平 | 硬件平台 |
|---|---|---|---|---|---|
| 语音唤醒词 | 小型CNN | 12.80KB | >95%召回率 | 毫瓦级 | Cortex-M4 |
| 视觉唤醒词 | 轻量CNN | 81.79KB | 90%mAP | 毫瓦级 | SparkFun Edge |
| 预测性维护 | 时序模型 | 32-64KB | >90%F1分数 | 毫瓦级 | 各类MCU |
| 室内定位 | Transformer/Mamba | 32-64KB | 1-3米误差 | 毫瓦级 | 低功耗MCU |
这些应用案例表明,TinyML技术已经能够在严格受限的设备上实现有实用价值的智能功能。随着算法和硬件的不断进步,TinyML的应用范围将进一步扩大,为边缘计算带来新的可能性。
5 未来挑战与展望
尽管TinyML技术近年来取得了显著进展,但其发展仍面临诸多挑战,同时也蕴含着巨大的潜力。了解这些挑战和未来方向对于推动TinyML技术的进一步成熟至关重要。本节将系统分析TinyML领域的关键问题和发展趋势。
5.1 算法与模型的协同创新
当前TinyML模型大多基于为云端或移动设备设计的架构进行压缩和优化,这种"先训练后压缩"的模式存在固有局限性。未来趋势是开发专为资源受限环境设计的新型神经网络架构。中提出的Mamba模型代表了这一方向的有益尝试,其状态空间架构在保持表达能力的同时大幅降低了计算复杂度。
另一个重要方向是自适应推理技术,使模型能够根据输入难度动态调整计算路径。这种方法模仿人类的感知过程,对简单样本使用简化计算,对困难样本才启用完整推理,从而在保持精度的同时提高效率。实现自适应推理需要解决计算图动态优化、早期退出策略设计等一系列技术难题。
神经架构搜索在TinyML领域也具有广阔前景。通过自动化模型设计流程,NAS可以探索模型大小、精度和延迟之间的最优平衡点。专为微控制器设计的NAS需要考虑硬件特性作为搜索约束,如内存带宽、缓存大小和专用指令集等,从而生成硬件感知的最优模型。
5.2 硬件与软件的协同设计
TinyML的性能极大依赖于硬件和软件的紧密协同设计。未来趋势是开发专为TinyML工作负载设计的处理器架构,这些架构需要支持低精度算术运算、稀疏计算和内存内计算等特性。新兴的数字表示法如Posit格式可能在特定应用中提供更好的精度-效率权衡。
软件工具链的成熟度对TinyML的普及同样关键。当前TFLM等框架已经提供了基本功能,但在开发体验、调试工具和性能分析方面仍有较大改进空间。理想的TinyML开发环境应提供:准确的功耗分析工具、可视化的模型性能分析器、自动化的模型压缩管道以及强大的调试支持。
跨平台兼容性是另一个重要挑战。嵌入式市场的碎片化程度极高,存在超过50种处理器架构和无数变体。未来框架需要在不牺牲性能的前提下提高可移植性,可能通过中间表示层和模块化设计实现"一次开发,到处部署"的理想状态。
5.3 隐私保护与安全性增强
作为处理敏感数据的边缘智能技术,TinyML需要内置强大的隐私保护机制。联邦学习等技术在TinyML环境下面临额外挑战,因为传统的联邦学习方案需要较大的通信和计算开销。发展适合TinyML的轻量级隐私保护技术是一个重要方向,可能包括差分隐私、安全多方计算和同态加密的简化实现。
模型安全同样不容忽视。对抗性攻击对TinyML模型构成严重威胁,特别是在安全关键应用中。需要开发适合资源受限环境的轻量级防御机制,如输入净化、对抗性检测和鲁棒训练算法。同时,确保模型知识产权保护,防止模型被非法提取或逆向工程也是商业应用的重要前提。
5.4 可持续性与可访问性提升
随着边缘设备数量的爆炸式增长,TinyML的环境影响日益受到关注。虽然单个设备功耗很低,但海量设备的总能耗可能相当可观。未来发展需要关注模型的能效优化,以及设备生命周期的可持续性设计,包括可回收材料使用、模块化设计和易于维修的硬件架构。
教育普及和开发者生态建设对TinyML的长期发展至关重要。指出,将TinyML引入人工智能专业课程体系有助于培养专业人才。教育实践需要低成本的硬件平台、开放的数据集和标准化的实验流程,以降低学习门槛。同时,开发更易用的工具和文档将帮助非嵌入式背景的机器学习工程师快速上手TinyML开发。
展望未来,TinyML技术将继续向更小、更高效、更智能的方向发展。随着算法、硬件和软件的协同进步,TinyML将在智能物联网、个性化医疗、环境监测等领域发挥更为重要的作用,真正实现"普适智能"的愿景。
6 结论
本文系统研究了TinyML技术的基本原理、关键技术和应用案例。研究表明,通过模型量化、剪枝、知识蒸馏等压缩技术,结合TensorFlow Lite Micro等专用推理框架,能够将机器学习模型部署到资源极度受限的微控制器上,实现毫瓦级别的智能推理。
TinyML技术具有显著优势:数据在本地处理,增强了隐私保护;推理过程在设备端完成,实现了实时响应;减少了数据远程传输的能耗开销。这些特性使得TinyML在语音唤醒、视觉检测、工业预测性维护等场景中具有不可替代的价值。
然而,TinyML技术仍面临诸多挑战,包括模型精度的保持、硬件平台的碎片化、开发工具的成熟度等。未来发展方向包括:专为资源受限环境设计的新型神经网络架构、硬件与软件的协同设计、隐私保护与安全性的增强、以及教育普及和开发者生态建设。
随着算法的不断进步和硬件能力的提升,TinyML将在边缘计算中扮演越来越重要的角色,为物联网设备赋予更强大的智能处理能力,推动人工智能向更广泛、更深入的应用领域拓展。未来的"普适智能"时代,TinyML技术将成为连接物理世界与数字智能的关键桥梁。
参考文献
- MINUN: 微控制器上的精确机器学习推理——论文阅读。阿里云开发者社区,2025.
- AI-ANNE: 将神经网络迁移到微控制器的深度探索——论文阅读。华为云社区,2025.
- TinyML:面向无处不在的边缘AI - 技术深度解析。ZEEKLOG博客,2025.
- TensorFlow Lite Micro:嵌入式TinyML系统上的机器学习推理框架——论文深度解析。阿里云开发者社区,2025.
- Suwannaphong T, et al. Optimising TinyML with Quantization and Distillation for Indoor Localisation on Edge Devices. arXiv preprint arXiv:2412.09289, 2024.
- TinyML边缘计算在高校人工智能专业实验教学中的应用研究。中文期刊,2023.