「2025嵌赛」瑞芯微&飞凌嵌入式赛题全国一等奖|基于ELF 2开发板的多传感信息融合的多用途巡检机器人

「2025嵌赛」瑞芯微&飞凌嵌入式赛题全国一等奖|基于ELF 2开发板的多传感信息融合的多用途巡检机器人

全国大学生嵌入式芯片与系统设计竞赛以服务国家嵌入式芯片与相关应用产业的发展大局,加强全国高校学生在相关领域的创新设计与工程实践能力,深化产教融合,培养具有创新思维、团队合作精神、解决复杂工程问题能力等新工科要求的优秀人才为背景。

飞凌嵌入式作为本届大赛协办单位之一,联合瑞芯微在应用赛道中设立专项赛题,并采用基于瑞芯微RK3588芯片设计的ELF 2开发板作为参赛平台,该赛题吸引了超过500支参赛队伍报名,经过线上初审与分赛区复赛的严格选拔,最终64支队伍脱颖而出,成功晋级全国总决赛。备赛期间,飞凌嵌入式技术团队为参赛学生提供了全方位的技术支持与专业培训,助力他们在比赛中充分发挥实力、斩获佳绩。

其中,郑州轻工业大学“调试时长两月半队”团队凭借参赛项目“基于ELF 2开发板的多传感信息融合的多用途巡检机器人”,荣获全国一等奖。该团队由计算机科学与技术学院的李宗洋、靳家林、吴海源三位同学组成,并在于泽琦老师和王晓老师的指导下完成项目。接下来,让我们一起了解这一获奖项目的具体内容。

“调试时长两月半队”团队展示

“基于ELF 2开发板的多传感信息融合的多用途巡检机器人”项目介绍

该项目是基于ELF 2开发板设计并实现了一款多功能巡检机器人,旨在为中小型驿站仓库、写字楼等场所提供智能化、自动化的安防巡查服务。系统以ROS 2 Humble版本为核心控制平台,结合slam_toolbox和Navigation 2导航框架实现自主建图与路径规划功能,使机器人能够在复杂室内环境中完成高效巡逻任务。

机器人搭载激光雷达与IMU传感器,通过SLAM技术构建高精度地图,并利用AMCL算法实现定位与导航。在视觉识别方面,采用YOLOv8目标检测模型对环境中的包裹状态、门窗开合情况进行实时识别与分析,有效判断是否存在包裹破损或异常开启情况,提升安全预警能力。

此外,机器人集成MLX90640热成像模块,能够对环境中的热源进行非接触式温度监测,识别异常高温区域,及时发现潜在火灾隐患,实现多维度的安全检测功能。所有检测结果均可通过ROS 2的消息机制上传至远程监控终端,便于管理人员实时掌握现场状况。

整个系统具备良好的可扩展性与稳定性,支持多任务协同运行,并可根据实际应用场景灵活配置功能模块。项目实现了从感知、决策到执行的完整闭环控制流程,展示了机器人在智能安防领域的广泛应用前景,为推动智慧仓储与楼宇管理的自动化升级提供了切实可行的技术方案。

*免责声明:本文所有作品介绍均来自2025第八届全国大学生嵌入式芯片与系统设计竞赛应用赛道学生提交的参赛作品展示,由学生自行制作。飞凌嵌入式展示获奖作品内容仅为展示参赛者作品,为开发者带来更多创意启发,并已征得主办方及参赛团队同意。飞凌嵌入式不承担作品展示内容或视频字体的相关法律责任。

参赛平台介绍——基于RK3588设计的ELF 2开发板

本次全国大学生嵌入式芯片与系统设计竞赛,瑞芯微&飞凌嵌入式赛题选用ELF 2开发板作为参赛平台,这款开发板基于瑞芯微RK3588高性能处理器设计,拥有四核ARM Cortex-A76与四核ARM Cortex-A55的CPU架构,主频高达2.4GHz,内置6TOPS算力的NPU,这一设计让它能够轻松驾驭多种深度学习框架,高效处理各类复杂的AI任务。

在接口资源方面,ELF 2开发板提供了丰富的选项,包括多个USB、PCIe、UART等通信接口,以及HDMI、DP等音视频接口。此外,它还支持多种扩展模块,适配了显示屏、摄像头、光照传感器、运动传感器、语音控制等丰富的选配模块。而且在开发板上预留的40pin排针可兼容树莓派的各种模块,为您的嵌入式学习之旅提供了无限可能。

图片

图片

ELF 2开发板已经适配了Linux 5.10及Ubuntu 22.04操作系统,后续逐步实现对Android、OpenHarmony等系统的适配,旨在为在校学生、高校教师、专业工程师、兴趣达人提供丰富的学习与开发环境。

如此高性能的开发板能够支持多种AI应用场景。在图像识别方面,可以高效地完成人脸识别和物体检测等任务。并通过内置的NPU和优化的算法,实现语音识别和自然语言处理,此外还支持多种机器学习算法和深度学习模型。

ELF 2开发板附带了丰富的教学资料,系统而全面地介绍了AI开发的整个流程。资料中不仅模型种类丰富多样,而且对典型模型都进行了深入的剖析,详细阐述了模型的优化思路与方法,让AI项目能够真正地从理论走向实践。

Read more

如何在PPT 中嵌入 VR 图片?如何在PPT中插入全景图片或Google相机空间图片进行播放?霹雳设计助手 VR 功能实操指南

如何在PPT 中嵌入 VR 图片?如何在PPT中插入全景图片或Google相机空间图片进行播放?霹雳设计助手 VR 功能实操指南

在产品展示、场景讲解、教学演示等诸多场景中,VR 图片凭借 360° 全视角的展示特性,能让观众获得沉浸式的视觉体验,相比普通图片和视频更具表现力。 但在传统的 PPT 演示中,想要展示 VR 图片却存在诸多不便,往往需要通过录屏、跳转浏览器或第三方软件的方式实现,操作流程的割裂不仅影响演示的连贯性,也让 VR 图片的沉浸式体验大打折扣。 霹雳设计助手的插入 VR 功能,实现了将 VR 图片直接嵌入 PPT 并在其中完成 360° 交互预览与放映的需求,无需切换外部软件,让 VR 图片的展示真正融入 PPT 演示流程。 本文将以实操为核心,详细讲解该功能的兼容特性、使用流程、功能操作及实操技巧,帮助不同领域的从业者快速掌握在 PPT 中嵌入和展示 VR 图片的方法,让沉浸式展示变得简单高效。 一、功能核心兼容特性与适用场景 在使用插入

Cosmos-Reason1-7B实战案例:为ROS2机器人注入物理常识推理能力

Cosmos-Reason1-7B实战案例:为ROS2机器人注入物理常识推理能力 1. 项目概述 Cosmos-Reason1-7B是NVIDIA开源的一款7B参数量的多模态物理推理视觉语言模型(VLM),作为Cosmos世界基础模型平台的核心组件,专注于物理理解与思维链(CoT)推理能力。该模型特别适合机器人与物理AI场景,能够处理图像/视频输入并生成符合物理常识的决策回复。 核心能力: * 理解复杂物理场景 * 进行链式思维推理 * 为机器人提供常识判断 * 分析图像/视频中的物理现象 2. ROS2集成方案 2.1 系统架构设计 将Cosmos-Reason1-7B集成到ROS2机器人系统中的典型架构如下: [机器人传感器] → [ROS2节点] → [Cosmos推理服务] → [决策系统] ↑ ↑ [执行器] ← [控制节点] ← 2.2 安装与配置 1. 安装依赖: pip install transformers>=4.35.0 torch>=2.1.0 2. 下载模型:

RTAB-Map学习记录(1)--论文阅读

RTAB-Map学习记录(1)--论文阅读

前言 RTAB-Map(全称 Real-Time Appearance-Based Mapping)是一个开源的 RGB-D SLAM框架,主要用于机器人导航、3D 重建和环境建图。这个项目目前还在积极的维护和更新,也可以进行实际环境的部署。所以先学习一下相关的原理和论文,为之后的使用打下基础。 文章目录 * 前言 * 1.主要贡献 * 2.关键内容 * 2.1 里程计 * 2.1.1 视觉里程计 * 2.1.2 激光雷达里程计 * 2.2 同步性 * 2.3 STM * 2.4 回环检测与优化 * 2.5 全局地图组成 1.主要贡献 首先看一下该方法的主要贡献有哪些,现有一个基本的了解: 1.

机器人具身智能概念

机器人具身智能概念 用"核心定义→指标表现→标准体系"的三段式结构。核心定义部分强调"身体"与"智能"融合的本质,指标部分结合EIBench和GM-100两个评测体系的具体指标,标准部分引用工信部标委会的工作方向。这样既有理论高度,又有具体的量化方法和官方标准依据。 具身智能(Embodied AI) 是人工智能领域一种更为高级的范式。它不仅仅是给机器人装上一个"大脑",而是强调智能必须通过物理身体与环境的实时互动才能产生和进化。简单来说,具身智能 = 机器人的"身体" + 人工智能的"大脑" + 与真实世界互动的能力。 要判断一个机器人是否属于具身智能,不能只看它是否能动,而是要系统性地考察它的"大脑"是否聪明、“身体"