ESP-SparkBot 是一款基于乐鑫 ESP32-S3 微控制器构建的开源大模型 AI 桌面机器人。该项目集成了语音交互、图像识别、远程遥控与多媒体功能于一体,通过创新的边缘 - 云端协同架构,在低成本硬件上实现了复杂的多模态交互能力,为嵌入式 AI 应用提供了一个高性价比的参考设计。

一、核心硬件与技术特性
ESP-SparkBot 的核心是乐鑫 ESP32-S3-WROOM-1-N16R8 模组。该模组集成了双核 Xtensa® LX7 32 位处理器,主频高达 240MHz,并配备了 512KB 片上 SRAM。这一计算配置为设备在边缘侧执行实时音频采集、预处理和轻量级 AI 推理(如语音活动检测、本地关键词识别)提供了必要的算力基础。
在连接性方面,ESP32-S3 内置了2.4GHz Wi-Fi 4 (802.11 b/g/n) 和蓝牙 5.0 (BLE) 双模无线通信模块。这使得 ESP-SparkBot 能够稳定地连接网络,与云端大语言模型(LLM)服务进行数据交换,同时也支持通过手机 App 进行蓝牙配网和本地控制。丰富的 I/O 接口,包括 I2S、I2C、SPI 和 ADC 等,使其能够灵活扩展多种外设。在项目中,这些接口被用于连接 OV2640 摄像头模组、1.54 英寸显示屏、驻极体电容麦克风以及 I2S 数字音频放大器驱动的扬声器,构成了机器人的感知与交互硬件系统。

二、系统架构与技术原理
ESP-SparkBot 的技术实现采用了典型的边缘 - 云端协同计算架构,有效平衡了设备能力、响应速度和实现成本。
在边缘端(ESP32-S3),设备主要承担环境感知、指令预处理和设备控制任务。通过乐鑫提供的 ESP-ADF(音频开发框架)和 ESP-WHO(机器视觉框架),ESP32-S3 能够在本地独立运行多项 AI 功能。例如,利用 ESP-SR 语音识别库实现离线语音指令识别;通过 ESP-WHO 库运行人脸识别、移动检测或行人检测等轻量级视觉模型。同时,设备内置的加速度传感器(如 BMI270 陀螺仪)支持实现'摇色子'等交互游戏。所有采集到的音频、图像等数据在本地经过初步降噪、压缩等预处理后,再通过 Wi-Fi 网络发送至云端。
在云端,系统处理计算密集型的高阶 AI 任务。ESP-SparkBot 的设计支持接入包括 DeepSeek、OpenAI GPT 系列、阿里云通义千问在内的多种主流大语言模型 API。用户的语音流经 ESP32-S3 本地预处理后,被传输至云端进行语音识别(STT),转换为文本并交由大模型进行语义理解和对话生成,生成的文本再通过云端的文本转语音(TTS)服务合成音频流,最终回传至设备播放。这种架构将庞大的模型计算负载转移到云端,使得 ESP32-S3 这类资源有限的嵌入式设备也能实现流畅、智能的对话交互。

三、模块化设计与应用优势
ESP-SparkBot 的一个显著特点是其模块化与可扩展的硬件设计。主体与底盘之间通过 4P Pogo Pin 磁吸连接器实现快速连接与分离。用户可以在'桌面智能终端'和'履带式智能小车'两种形态间轻松切换。在小车形态下,由额外的 N20 减速电机驱动履带,通过 Wi-Fi 图传和手机 App 或语音指令实现遥控移动。



