「2025嵌赛」瑞芯微&飞凌嵌入式赛题全国一等奖|基于ELF 2开发板的多传感信息融合的多用途巡检机器人

「2025嵌赛」瑞芯微&飞凌嵌入式赛题全国一等奖|基于ELF 2开发板的多传感信息融合的多用途巡检机器人

全国大学生嵌入式芯片与系统设计竞赛以服务国家嵌入式芯片与相关应用产业的发展大局,加强全国高校学生在相关领域的创新设计与工程实践能力,深化产教融合,培养具有创新思维、团队合作精神、解决复杂工程问题能力等新工科要求的优秀人才为背景。

飞凌嵌入式作为本届大赛协办单位之一,联合瑞芯微在应用赛道中设立专项赛题,并采用基于瑞芯微RK3588芯片设计的ELF 2开发板作为参赛平台,该赛题吸引了超过500支参赛队伍报名,经过线上初审与分赛区复赛的严格选拔,最终64支队伍脱颖而出,成功晋级全国总决赛。备赛期间,飞凌嵌入式技术团队为参赛学生提供了全方位的技术支持与专业培训,助力他们在比赛中充分发挥实力、斩获佳绩。

其中,郑州轻工业大学“调试时长两月半队”团队凭借参赛项目“基于ELF 2开发板的多传感信息融合的多用途巡检机器人”,荣获全国一等奖。该团队由计算机科学与技术学院的李宗洋、靳家林、吴海源三位同学组成,并在于泽琦老师和王晓老师的指导下完成项目。接下来,让我们一起了解这一获奖项目的具体内容。

“调试时长两月半队”团队展示

“基于ELF 2开发板的多传感信息融合的多用途巡检机器人”项目介绍

该项目是基于ELF 2开发板设计并实现了一款多功能巡检机器人,旨在为中小型驿站仓库、写字楼等场所提供智能化、自动化的安防巡查服务。系统以ROS 2 Humble版本为核心控制平台,结合slam_toolbox和Navigation 2导航框架实现自主建图与路径规划功能,使机器人能够在复杂室内环境中完成高效巡逻任务。

机器人搭载激光雷达与IMU传感器,通过SLAM技术构建高精度地图,并利用AMCL算法实现定位与导航。在视觉识别方面,采用YOLOv8目标检测模型对环境中的包裹状态、门窗开合情况进行实时识别与分析,有效判断是否存在包裹破损或异常开启情况,提升安全预警能力。

此外,机器人集成MLX90640热成像模块,能够对环境中的热源进行非接触式温度监测,识别异常高温区域,及时发现潜在火灾隐患,实现多维度的安全检测功能。所有检测结果均可通过ROS 2的消息机制上传至远程监控终端,便于管理人员实时掌握现场状况。

整个系统具备良好的可扩展性与稳定性,支持多任务协同运行,并可根据实际应用场景灵活配置功能模块。项目实现了从感知、决策到执行的完整闭环控制流程,展示了机器人在智能安防领域的广泛应用前景,为推动智慧仓储与楼宇管理的自动化升级提供了切实可行的技术方案。

*免责声明:本文所有作品介绍均来自2025第八届全国大学生嵌入式芯片与系统设计竞赛应用赛道学生提交的参赛作品展示,由学生自行制作。飞凌嵌入式展示获奖作品内容仅为展示参赛者作品,为开发者带来更多创意启发,并已征得主办方及参赛团队同意。飞凌嵌入式不承担作品展示内容或视频字体的相关法律责任。

参赛平台介绍——基于RK3588设计的ELF 2开发板

本次全国大学生嵌入式芯片与系统设计竞赛,瑞芯微&飞凌嵌入式赛题选用ELF 2开发板作为参赛平台,这款开发板基于瑞芯微RK3588高性能处理器设计,拥有四核ARM Cortex-A76与四核ARM Cortex-A55的CPU架构,主频高达2.4GHz,内置6TOPS算力的NPU,这一设计让它能够轻松驾驭多种深度学习框架,高效处理各类复杂的AI任务。

在接口资源方面,ELF 2开发板提供了丰富的选项,包括多个USB、PCIe、UART等通信接口,以及HDMI、DP等音视频接口。此外,它还支持多种扩展模块,适配了显示屏、摄像头、光照传感器、运动传感器、语音控制等丰富的选配模块。而且在开发板上预留的40pin排针可兼容树莓派的各种模块,为您的嵌入式学习之旅提供了无限可能。

图片

图片

ELF 2开发板已经适配了Linux 5.10及Ubuntu 22.04操作系统,后续逐步实现对Android、OpenHarmony等系统的适配,旨在为在校学生、高校教师、专业工程师、兴趣达人提供丰富的学习与开发环境。

如此高性能的开发板能够支持多种AI应用场景。在图像识别方面,可以高效地完成人脸识别和物体检测等任务。并通过内置的NPU和优化的算法,实现语音识别和自然语言处理,此外还支持多种机器学习算法和深度学习模型。

ELF 2开发板附带了丰富的教学资料,系统而全面地介绍了AI开发的整个流程。资料中不仅模型种类丰富多样,而且对典型模型都进行了深入的剖析,详细阐述了模型的优化思路与方法,让AI项目能够真正地从理论走向实践。

Read more

AI驱动的PDF文档智能解析:MinerU本地部署与API调用完全指南

什么是MinerU? MinerU是一个将复杂文档(如PDF)转换为LLM就绪的markdown/JSON格式的工具,用于Agentic工作流。相比传统PDF解析工具,MinerU在文档结构解析、多媒体提取、公式识别等方面有着显著优势。 主要功能包括: * 文档结构解析:移除页眉页脚、脚注、页码等,确保语义连贯性 * 内容提取:输出按人类可读顺序排列的文本,支持单列、多列和复杂布局 * 格式保持:保留原始文档结构(标题、段落、列表等) * 多媒体提取:提取图像、图像描述、表格、表格标题和脚注 * 公式识别:自动将文档中的公式转换为LaTeX格式 * 表格识别:自动将表格转换为HTML格式 * OCR支持:自动检测扫描版PDF并启用OCR功能,支持84种语言 * 多平台支持:兼容Windows、Linux、Mac平台,支持CPU/GPU/NPU加速 环境准备与安装 硬件要求 * CPU推理:支持纯CPU环境 * GPU要求:Turing架构及以上,

从指令到执行:OpenClaw 底层原理深度拆解 —— 一台真正会 “动手” 的本地 AI 引擎

从指令到执行:OpenClaw 底层原理深度拆解 —— 一台真正会 “动手” 的本地 AI 引擎

前言 当我们对 OpenClaw 发出一句自然语言指令:“把桌面所有超过一周的截图归档到 D 盘,再把今天的工作记录整理成 Markdown 并推送到 GitHub。” 传统 AI 会给出步骤,而 OpenClaw 会直接做完。 绝大多数文章只告诉你 OpenClaw “能做什么”,却极少解释它到底是如何做到的: * 一段文字,是怎么变成可执行的系统操作? * 它凭什么能跨 IM、跨平台、跨模型统一工作? * 高权限执行,底层是如何保证安全与可控? * 本地运行、隐私闭环,在架构上究竟如何实现? 本文不讲功能、不讲教程,只讲原理。从意图解析、任务编排、执行引擎、权限沙箱到多模态交互,带你从 0 到 1 理解 OpenClaw 的技术本质:它不是一个聊天机器人,而是一套本地优先、可解释、可审计、

AI 驱动游戏:鸿蒙生态的机会在哪里?

AI 驱动游戏:鸿蒙生态的机会在哪里?

子玥酱(掘金 / 知乎 / ZEEKLOG / 简书 同名) 大家好,我是子玥酱,一名长期深耕在一线的前端程序媛 👩‍💻。曾就职于多家知名互联网大厂,目前在某国企负责前端软件研发相关工作,主要聚焦于业务型系统的工程化建设与长期维护。 我持续输出和沉淀前端领域的实战经验,日常关注并分享的技术方向包括前端工程化、小程序、React / RN、Flutter、跨端方案, 在复杂业务落地、组件抽象、性能优化以及多端协作方面积累了大量真实项目经验。 技术方向:前端 / 跨端 / 小程序 / 移动端工程化 内容平台:掘金、知乎、ZEEKLOG、简书 创作特点:实战导向、源码拆解、少空谈多落地 文章状态:长期稳定更新,大量原创输出 我的内容主要围绕 前端技术实战、真实业务踩坑总结、框架与方案选型思考、行业趋势解读 展开。文章不会停留在“API 怎么用”,而是更关注为什么这么设计、在什么场景下容易踩坑、

AIGC镜头控制完全教程:用Next Scene Qwen Image LoRA实现专业级视角变换

AIGC镜头控制完全教程:用Next Scene Qwen Image LoRA实现专业级视角变换 【免费下载链接】next-scene-qwen-image-lora-2509 项目地址: https://ai.gitcode.com/hf_mirrors/lovis93/next-scene-qwen-image-lora-2509 你是否曾经为AIGC生成的图像无法精准控制镜头角度而苦恼?🤔 传统文本描述往往难以准确传达复杂的相机运动意图,导致生成的画面与想象相去甚远。今天,我们将带你深入了解Next Scene Qwen Image LoRA模型,这是一款专门为AIGC镜头控制设计的强大工具,能够实现六自由度的精准相机操控。 快速上手:5分钟完成环境配置 系统要求检查清单: * Python 3.10或更高版本 * PyTorch 2.0+ * 显卡显存建议8GB以上 * ComfyUI最新版本 模型获取与安装: 1. 将下载的.safetensors文件复制到ComfyUI的loras目录 2. 安装必要依赖库 克隆项目仓库: git clo