基于改进YOLOv11n的无人机红外目标检测算法

基于改进YOLOv11n的无人机红外目标检测算法

导读:

面向无人机红外图像中目标尺度小、对比度低与边界模糊等问题,本文提出了一种基于YOLOv11n模型的多尺度注意力机制优化方法。首先,在引入小目标检测层的基础上,融合多分支与双向金字塔思想构建双向多分支辅助特征金字塔网络,通过可学习权重自适应融合各层特征,增强微小目标表征。其次,在检测头侧采用动态注意力检测头,从尺度、空间与通道三方面进行协同建模,提升关键区域聚焦与特征利用效率。最后,提出NWD-Inner-MPDIoU组合损失函数,协同提升低重叠、边界不清条件下的定位稳定性。在HIT-UAV红外小目标数据集上进行系统实验评估,结果表明:所提方法mAP50达92.8%,相比基线模型提升2.2%,且召回率与准确率分别提高1.6%和0.6%。同时,模型仅小幅增加复杂度,整体仍保持轻量化与可部署性。综上,本文方法在保证效率的同时有效提升了无人机红外目标的检测质量,为后续扩展研究提供了可靠的技术基础。

作者信息:

康泽韬董智红*王孜心:北京印刷学院信息工程学院,北京

论文详情

YOLOv11n的网络架构如图1所示,由骨干网络、颈部网络、检测头三部分组成。

针对红外无人机图像中目标尺度小、对比度低、边界模糊且在低重叠区域易出现回归梯度稀疏、致使YOLOv11n存在漏检与定位不稳的问题,本文提出如下改进创新:

(1) 新增P2小目标检测层,以更高分辨率捕获微小目标细节提升召回率;

(2) 在颈部构建双向多分支辅助特征金字塔网络(Bi-directional Multi-branch Auxiliary Feature Pyramid Network, BIMAFPN),实现多路径跨层与双向融合,强化浅层细节与高层语义的协同表征,提升复杂背景下的可分离性与鲁棒性;

(3) 提出NWD-Inner-MPDIoU (Normalized Wasserstein Distance-Inner Scaling-Minimum Point Distance Intersection over Union)组合损失函数,在低交并时提供连续且尺度稳健的几何度量,按重叠程度自适应缩放边界框并以最小点距离增强对位置与尺寸偏差的辨识,提高训练稳定性与收敛速度;

(4) 引入动态注意力检测头(Dynamic Head, DyHead),自适应重加权不同尺度、空间位置与通道信息,形成统一高效的检测头表示,在控制推理开销的同时降低漏检与误检。

改进后的网络架构如图2所示。

本文在原有多尺度检测头的基础上增加P2小目标检测层(特征图为160 × 160),本文参考并扩展多分支辅助特征金字塔的设计思路,构建由自顶向下与自底向上两路信息交互、并行多分支横向连接组成的BIMAFPN。网络结构如图3所示。

为应对红外无人机目标在低对比、尺度跨度大及轻微位移等条件下,检测头阶段易出现的“尺度选择不准、空间错位与通道利用不足”问题,本文在颈部输出之后引入动态注意力检测头DyHead。其整体结构如图4所示。

本文采用哈尔滨工业大学发布的HIT-UAV无人机红外目标检测数据集。

本文实验使用PyTorch框架,采用GPU加速完成。实验软硬件环境为:Ubuntu 22.04操作系统,32 GB内存,NVIDIA GeForce RTX 4090。软件配置为Python 3.10.15、PyTorch 2.3、CUDA 12.1与cuDNN 8.9.0。训练基本参数设置如下:总轮数300,批量大小16,初始学习率0.01。

为全面衡量模型的检测性能与计算代价,本文选取精准率(Precision, P)、召回率(Recall, R)、平均精度(mAP)、参数量(Params)和GFLOPs五项指标。

为直观评估各改进环节的贡献,按“P2 → BIMAFPN → NWD-Inner-MPDIoU → DyHead”的顺序逐步叠加,构建模型A、B、C、D,与基线YOLOv11n在相同设置下对比,结果如表1所示。

为进一步评估所提出方法,在HIT-UAV数据集上与主流目标检测算法进行了对比,结果如表2所示。

基于HIT-UAV数据集的对比与消融实验表明,该方案在精度与稳定性上均取得了较好效果:相较基线YOLOv11n,mAP50提升约2.2%,召回率提升约1.6%,准确率同步提高;参数量与计算量仅小幅增加,整体仍处于轻量级范畴,消融结果进一步验证了各模块的互补性。

尽管如此,方法在极端杂波背景、较强热噪声或剧烈运动模糊条件下仍有改进空间。后续工作仍可从两方面展开:其一,开展剪枝、量化与蒸馏以压缩模型、降低推理开销。其二,结合时间一致性与多模态信息以增强在复杂场景下的稳健性与泛化能力。综上,本文为无人机红外小目标检测提供了一种兼顾精度与效率的可行方法,可为安防监控、应急搜救与信息采集等应用提供解决思路。

基金项目:

本研究得到北京印刷学院科研平台建设项目(KYCPT202509)的支持。

原文链接:

https://doi.org/10.12677/airr.2025.146137

Read more

2026 AI大模型实战:零基础玩转当下最火的AIGC

哈喽宝子们,2026年的AI大模型赛道简直卷出了新高度,中关村论坛上昆仑万维发布的Matrix-Game 3.0、SkyReels V4、Mureka V9三大世界级模型直接把全模态AIGC推上了新风口,而且昆仑天工旗下的SkyText、SkyCode等多款模型还开放了开源API,普通人也能轻松玩转AI大模型开发了。 一、当下 AI 大模型核心热点:人人都能做 AI 开发 1.全模态成主流:昆仑万维的 SkyReels V4 视频大模型实现音画一体生成、Mureka V9 音乐大模型支持创作意图精准落地,AI 从单一文本生成进入文本 / 图像 / 音频 / 视频全模态创作时代; 2.开源 API 全面开放:昆仑天工的 SkyText(文本生成)、SkyCode(代码生成)等模型开源,无需自建大模型,通过简单 API 就能实现商用级 AI 功能; 3.

Cogito-v1-preview-llama-3B代码实例:Python调用API实现自动代码补全

Cogito-v1-preview-llama-3B代码实例:Python调用API实现自动代码补全 1. 引言:当代码补全遇见混合推理模型 你有没有过这样的经历?深夜赶项目,面对一个复杂的函数逻辑,大脑一片空白,手指在键盘上悬停半天,就是敲不出下一行代码。或者,在调试一个棘手的bug时,明明感觉解决方案就在嘴边,却怎么也组织不成有效的代码。 传统的代码补全工具,比如IDE自带的智能提示,大多基于静态分析或简单的模式匹配。它们能帮你补全变量名、函数名,但在需要理解上下文、进行逻辑推理的复杂场景下,往往就力不从心了。 今天,我要介绍一个能真正“理解”你在写什么的代码助手——Cogito-v1-preview-llama-3B。这不是一个普通的语言模型,而是一个经过特殊训练的混合推理模型。简单来说,它不仅能像普通模型一样直接给出答案,还能在回答前“思考”一下,就像我们人类解决问题时会先在脑子里过一遍逻辑一样。 这篇文章,我将带你从零开始,用Python调用Cogito模型的API,搭建一个属于你自己的智能代码补全工具。整个过程非常简单,即使你之前没接触过API调用,也能轻松跟上

小白也能用的AI绘画神器:Z-Image i2L快速入门指南

小白也能用的AI绘画神器:Z-Image i2L快速入门指南 你是不是也试过很多AI绘画工具,结果不是要注册账号、等排队,就是生成一张图要花好几分钟,还担心图片被传到服务器上?今天要介绍的这个工具,不用联网、不传数据、不卡显存,打开就能画——而且操作简单到连手机都能点着玩。 它就是⚡ Z-Image i2L(DiffSynth Version),一个真正为普通人设计的本地文生图工具。没有复杂命令,没有报错黑屏,更不需要懂“LoRA”“ControlNet”这些词。只要你能打字,就能生成属于自己的高清图像。 这篇文章不讲原理、不堆参数,只说三件事: 它到底有多简单? 你第一次点开界面该做什么? 怎么调几个关键设置,让生成效果从“还行”变成“哇!” 全程零门槛,10分钟上手,现在就开始。 1. 为什么说它是“小白友好型”AI绘画工具? 很多人一听到“本地部署”“Diffusers框架”“BF16精度”,下意识就觉得:

AIGC实战测评:蓝耘元生代通义万相2.1图生视频的完美部署~

AIGC实战测评:蓝耘元生代通义万相2.1图生视频的完美部署~

文章目录 * 👏什么是图生视频? * 👏通义万相2.1图生视频 * 👏开源仓库代码 * 👏蓝耘元生代部署通义万相2.1图生视频 * 👏平台注册 * 👏部署通义万相2.1图生视频 * 👏使用通义万相2.1图生视频 * 👏总结 👏什么是图生视频? 图生视频是一种通过图像生成技术,结合文本信息生成视频的创新方式。通过输入一张图像和相关的描述文本,系统能够根据这些输入生成一个符合描述的视频。该技术利用深度学习和计算机视觉技术,将静态图像转化为动态视频,实现视觉内容的快速生成。这种技术的应用广泛,涵盖了内容创作、影视制作、广告生成等多个领域。 👏通义万相2.1图生视频 阿里巴巴旗下“通义”品牌宣布,其AI视频生成模型“通义万相Wan”正式推出独立网站,标志着其生成式AI技术的重大进展。新网站现已开放(网址:wan.video),用户可直接登录体验“文本生成视频”和“图像生成视频”功能,无需本地部署,极大降低了使用门槛。此外,每天登录网站还可获赠积分,激励用户持续探索。 文章链接:https: