在OrangePi-5 Plus/5 Ultra上实时运行yolo26进行无人机检测,fps超50!

在OrangePi-5 Plus/5 Ultra上实时运行yolo26进行无人机检测,fps超50!

在OrangePi-5 Plus/5 Ultra上使用VideoPipe与YOLO26n实现高性能无人机检测

视频效果展示

RK3588无人机检测

前言

随着低空经济的快速发展,无人机检测已成为安防监控、边境巡逻、关键区域保护等场景中的重要需求。OrangePi 5 Plus和OrangePi 5 Ultra作为瑞芯微RK3588平台的高性能开发板,凭借其强大的NPU算力,成为边缘端AI推理的理想选择。

本文将详细介绍如何基于VideoPipe框架,结合最新的YOLO26n模型,在这两款开发板上实现高效的无人机检测,并分享我们在预处理和模型量化方面的深度优化经验。

一、硬件平台与模型概述

1.1 硬件平台

  • OrangePi 5 Plus: 搭载瑞芯微RK3588处理器,8核CPU + Mali-G610 GPU + 6TOPS NPU
  • OrangePi 5 Ultra: 同样基于RK3588,NPU算力可达16TOPS(INT8)

这两款开发板都具备强劲的AI推理能力,非常适合部署目标检测模型。

在这里插入图片描述
📷 图1: OrangePi 5 Plus(上)与OrangePi 5 Ultra(下)尺寸对比,右侧为标准鼠标左侧为标准键盘

1.2 YOLO26n模型

YOLO26是YOLO系列的最新版本,相比前代YOLO11,在检测精度和推理速度上都有显著提升。YOLO26n是nano版本,专为资源受限的边缘设备设计:

  • 参数量: 约280万
  • 计算量: 约6.8G FLOPs
  • 输入分辨率: 640×352(非标准方形,而是更适合常用视频1080p、720p等的宽高比)

二、VideoPipe框架简介

VideoPipe是一个基于节点架构的视频分析流水线框架,专为嵌入式场景设计。其核心特点包括:

  1. 节点化架构: 每个处理步骤(解码、推理、跟踪、OSD等)都是独立的节点
  2. 硬件加速: 深度集成MPP(视频编解码)、RGA(2D图像处理)、RKNN(NPU推理)
  3. 低延迟: 流水线设计,最大化硬件利用率
  4. 易扩展: 方便添加新的节点类型和处理逻辑

典型流水线结构:

源节点 -> 预处理节点 -> 推理节点 -> OSD节点 -> 显示节点 

三、优化策略详解

3.1 输入分辨率优化:640×352

传统方案: 通常使用640×640或416×416等方形输入

优化方案: 使用640×352的宽高比输入

为什么这么做?

  1. 适配视频场景: 大多数监控视频为16:9宽高比输入可以减少无效像素的处理
  2. 降低计算量: 相比640×640,减少了约45%的像素数(229,120 vs 409,600)
  3. 保持宽特征: 352的高度足以捕捉大部分目标特征,而640的宽度可以覆盖更宽的视野

实测效果:

  • 推理速度提升约30%
  • 检测精度基本不变(因为无人机通常是细长目标,宽度信息未被牺牲)

3.2 预处理优化:放弃等比缩放,直接缩放

传统方案: 使用OpenCV进行等比缩放 + padding

// 传统方式(伪代码) cv::Mat resized;float scale =min(640.0

Read more

Being-H0.5:扩展以人为中心的机器人学习实现跨具身泛化

Being-H0.5:扩展以人为中心的机器人学习实现跨具身泛化

26年1月来自的BeingBeyond团队的论文“Being-H0.5: Scaling Human-Centric Robot Learning for Cross-Embodiment Generalization”。 Being-H0.5 是一个基础视觉-语言-动作 (VLA) 模型,旨在实现跨不同机器人平台的鲁棒跨具身泛化。现有的 VLA 模型通常难以应对形态异质性和数据稀缺性,而提出的一种以人为中心学习范式,将人类交互痕迹视为物理交互的通用“母语”。为了支持这一范式,推出 UniHand-2.0,这是迄今为止规模最大的具身预训练方案,包含来自 30 种不同机器人具身的超过 35,000 小时多模态数据。该方法引入一个统一动作空间,将异构的机器人控制映射到语义对齐槽中,使低资源机器人能够从人类数据和高资源平台中引导技能。基于这一以人为中心的基础,设计一个统一的序列建模和多任务预训练范式,以连接人类演示和机器人执行。在架构上,Being-H0.5 采用混合 Transformer (MoT)设计,并引入一种混合流 (MoF) 框架,将共享的运动基元与特定于具身的专家解耦。

Reachy Mini:重新定义桌面机器人的开源硬件革命

Reachy Mini:重新定义桌面机器人的开源硬件革命 【免费下载链接】reachy_miniReachy Mini's SDK 项目地址: https://gitcode.com/GitHub_Trending/re/reachy_mini 在当今机器人技术快速发展的时代,桌面机器人作为开源硬件的重要分支,正以其独特的魅力吸引着全球开发者的目光。Reachy Mini作为这一领域的杰出代表,不仅展示了精密机械设计的极致追求,更为机器人爱好者提供了前所未有的学习与实践平台。 设计哲学:模块化与可访问性的完美平衡 让我们深入理解Reachy Mini背后的设计理念。与传统机器人设计不同,它采用了分层模块化架构,将复杂的机械系统分解为可独立制造和替换的功能单元。这种设计哲学的核心在于:让每个组件都具备明确的边界和标准化的接口,使得维护、升级和定制变得异常简单。 核心设计原则: * 教育导向:每个设计决策都考虑到学习价值 * 制造友好:所有部件都针对3D打印工艺优化 * 成本控制:通过开源设计降低准入门槛 * 扩展灵活:预留充分的接口用于功能扩展 核心子系统解

【2025最新高维多目标优化】基于城市场景下无人机三维路径规划的导航变量的多目标粒子群优化算法NMOPSO研究(Matlab代码实现)

💥💥💞💞欢迎来到本博客❤️❤️💥💥 🏆博主优势:🌞🌞🌞博客内容尽量做到思维缜密,逻辑清晰,为了方便读者。 ⛳️座右铭:行百里者,半于九十。 📋📋📋本文内容如下:🎁🎁🎁  ⛳️赠与读者 👨‍💻做科研,涉及到一个深在的思想系统,需要科研者逻辑缜密,踏实认真,但是不能只是努力,很多时候借力比努力更重要,然后还要有仰望星空的创新点和启发点。建议读者按目录次序逐一浏览,免得骤然跌入幽暗的迷宫找不到来时的路,它不足为你揭示全部问题的答案,但若能解答你胸中升起的一朵朵疑云,也未尝不会酿成晚霞斑斓的别一番景致,万一它给你带来了一场精神世界的苦雨,那就借机洗刷一下原来存放在那儿的“躺平”上的尘埃吧。      或许,雨过云收,神驰的天地更清朗.......🔎🔎🔎 💥1 概述 基于城市场景下无人机三维路径规划的导航变量的多目标粒子群优化算法(NMOPSO)研究 摘要 随着无人机应用场景的复杂化,城市场景下的三维路径规划需同时优化路径长度、飞行时间、威胁规避、能耗等多个相互冲突的目标。

Cameralink 图像输出和采集时序,针对FPGA开发

Cameralink 图像输出和采集时序,针对FPGA开发

Cameralink使用接口芯片进行开发的时候,例如国产芯片GM8283、GM8284,GM8284等等。都可以支持宽温85Mhz以上。老外的芯片:例如DS90CR285. DS90CR2856 ,DS90CR287.DS90CR288.   精典的Cameralink接口芯片。              那么FPGA接这些芯片的时候,给的时序可以参考Cameralink标准定义进行。下面进行一些举例说明。 (1)mono8, 8Tap 黑白图像              该模式下,一个时钟输出8个x方向的相邻像素,占用A、B、C、D、E、F、G、H共8个通道,A通道输出tap1,B通道输出tap2,C通道输出tap3,D通道输出tap4,E通道输出tap5,F通道输出tap6,G通道输出tap7,H通道输出tap8,如下图所示。 具体时序图,如下所示。              图像分辨率为m行和n列,那么一个FVAL信号包括m个LVAL信号,一个LVAL信号包括n/8个CLOCK时钟。 数据输出的有效期或者无效期,时钟信号CLOCK一直有效,时钟