跳到主要内容
极客日志极客日志
首页博客AI提示词GitHub精选代理工具
搜索
|注册
博客列表
PythonAI算法

无人机 RGB+ 红外双模态小目标行人检测系统构建与数据集详解

无人机视角下的 RGB+ 红外双模态行人检测面临小目标识别难、光照变化大等挑战。一个包含 6125 对同步图像的数据集及基于 YOLOv8 的系统实现方案。通过早期融合策略处理 4 通道输入数据,涵盖图像预处理、模型配置修改、自定义数据加载器开发以及训练推理脚本编写,为科研和工程落地提供完整参考。

Ne0发布于 2026/3/20更新于 2026/4/252 浏览
无人机 RGB+ 红外双模态小目标行人检测系统构建与数据集详解

无人机视角下 RGB+ 红外对齐行人小目标检测数据集

本数据集专为挑战性极高的无人机小行人检测任务设计,特别适合评估模型在远距离、小尺度、复杂光照(含夜间)条件下的鲁棒性。

模态与视角

无人机搭载 RGBT 双光相机,从 50–80 m 高度、45°–60° 俯视角采集,同步 RGB + 热红外图像对。

规模

共 6,125 对图像(4,900 train / 1,225 test),分辨率 640×512,总计 70,880 个行人实例。

任务

专门面向 tiny person detection 的无人机 RGBT 检测 benchmark。

数据集示例

数据集概览

项目内容
数据集名称DroneRGBT-Pedestrian
任务类型小目标行人检测(Tiny Person Detection)
应用场景低空安防、应急搜救、智慧城市、边境巡检、夜间监控
采集平台无人机(UAV)搭载 RGB + 热红外(Thermal)双光相机
模态双模态同步图像对:可见光(RGB)、热红外(Infrared / Thermal)
采集高度50 – 80 米
俯视角45° – 60° 斜向俯拍
图像分辨率640 × 512 像素(RGB 与红外严格对齐)
图像对数量6,125 对(每对含 1 张 RGB + 1 张红外图)
数据划分训练集(train):4,900 对;测试集(test):1,225 对
标注格式支持 YOLO / COCO / VOC 等(通常提供边界框 .txt 或 .json)
目标类别1 类:行人(Person)
总实例数70,880 个行人标注框(平均每个图像约 11.6 个目标)
目标特点小目标为主(多数 < 32×32 像素);包含遮挡、密集、远距离、夜间/低照度场景;红外模态增强弱光/夜间检测能力
对齐方式像素级空间对齐(经标定与配准,RGB 与红外图一一对应)
适用模型单模态:YOLOv8(RGB 或 Thermal);多模态融合:Fusion-YOLO、CFT、MFFNet、GLAD 等 RGBT 检测模型
用途无人机小目标检测 benchmark;多模态特征融合研究;跨模态对齐与迁移学习

系统构建方案

以下是构建基于无人机 RGB+ 红外(RGBT)双模态小目标行人检测系统的完整代码方案,采用 YOLOv8 多模态融合架构(简化版),支持训练、推理与可视化。由于 Ultralytics YOLOv8 原生不直接支持双模态输入,我们将通过早期融合(Early Fusion)方式将 RGB 与红外图拼接为 4 通道输入,并微调模型。

项目结构

text
DroneRGBT_Detection/
├── datasets/
│   ├── images/
│   │   ├── train/ # 存放融合后的 4 通道 .npy 或拼接图
│   │   └── val/
│   └── labels/
│       ├── train/
│       └── val/
├── models/
│   └── yolov8s-rgbt.yaml # 自定义 4 通道输入模型配置
├── tools/
│   ├── fuse_rgb_thermal.py # 将 RGB + 红外融合为 4 通道图像
│   └── create_labels.py # (若需从原始标注生成 YOLO 格式)
├── train.py # 训练脚本
├── detect.py # 推理脚本(支持单图/视频)
└── rgbt_drone.yaml # 数据集配置文件

1. 融合 RGB + 红外图像

我们需要先将 RGB 和热红外图像合并为一个 4 通道的 numpy 数组,方便后续加载。

# tools/fuse_rgb_thermal.py
import os
import cv2
import numpy as np

def fuse_rgb_thermal(rgb_dir, thermal_dir, output_dir):
    os.makedirs(output_dir, exist_ok=True)
    rgb_files = sorted(os.listdir(rgb_dir))
    for rgb_file in rgb_files:
        if not rgb_file.lower().endswith(('.jpg', '.png')):
            continue
        thermal_file = rgb_file  # 假设文件名一致
        rgb_path = os.path.join(rgb_dir, rgb_file)
        thermal_path = os.path.join(thermal_dir, thermal_file)
        
        rgb = cv2.imread(rgb_path)  # (H, W, 3)
        thermal = cv2.imread(thermal_path, cv2.IMREAD_GRAYSCALE)  # (H, W)
        
        if rgb is None or thermal is None:
            print(f"Skip {rgb_file}")
            continue
        
        # 调整 thermal 到 3 通道(可选)或保留单通道
        thermal = np.expand_dims(thermal, axis=2)  # (H, W, 1)
        fused = np.concatenate([rgb, thermal], axis=2)  # (H, W, 4)
        
        # 保存为 .npy(推荐)或拼接图(如用 4 通道 TIFF)
        np.save(os.path.join(output_dir, rgb_file.replace('.jpg', '.npy')), fused)

if __name__ == '__main__':
    fuse_rgb_thermal(
        rgb_dir='raw_data/train/rgb', 
        thermal_dir='raw_data/train/thermal', 
        output_dir='datasets/images/train'
    )

输出为 .npy 文件(含 4 通道),便于后续加载。

2. 自定义 YOLOv8 模型

创建 models/yolov8s-rgbt.yaml,注意首层卷积需要适配 4 通道输入。

# YOLOv8s for RGBT (4-channel input)
nc: 1  # number of classes
scales: [0.33, 0.50]  # model depth and width scaling
backbone:
  # [from, repeats, module, args]
  - [-1, 1, Conv, [64, 3, 2]]  # 0-P1/2 (input must be 4-channel!)
  - [-1, 1, Conv, [128, 3, 2]]  # 1-P2/4
  - [-1, 3, C2f, [128, True]]
  - [-1, 1, Conv, [256, 3, 2]]  # 3-P3/8
  - [-1, 6, C2f, [256, True]]
  - [-1, 1, Conv, [512, 3, 2]]  # 5-P4/16
  - [-1, 6, C2f, [512, True]]
  - [-1, 1, Conv, [1024, 3, 2]]  # 7-P5/32
  - [-1, 3, C2f, [1024, True]]
  - [-1, 1, SPPF, [1024, 5]]  # 9
head:
  - [-1, 1, nn.Upsample, [None, 2, 'nearest']]
  - [[-1, 6], 1, Concat, [1]]  # cat backbone P4
  - [-1, 3, C2f, [512]]  # 12
  - [-1, 1, nn.Upsample, [None, 2, 'nearest']]
  - [[-1, 4], 1, Concat, [1]]  # cat backbone P3
  - [-1, 3, C2f, [256]]  # 15 (P3/8-small)
  - [-1, 1, Conv, [256, 3, 2]]
  - [[-1, 12], 1, Concat, [1]]  # cat head P4
  - [-1, 3, C2f, [512]]  # 18 (P4/16-medium)
  - [-1, 1, Conv, [512, 3, 2]]
  - [[-1, 9], 1, Concat, [1]]  # cat head P5
  - [-1, 3, C2f, [1024]]  # 21 (P5/32-large)
  - [[15, 18, 21], 1, Detect, [nc]]  # Detect(P3, P4, P5)

关键修改:首层 Conv 输入通道自动适配 4 通道(无需改代码,PyTorch 自动推断)。

3. 数据集配置

创建 rgbt_drone.yaml。

# rgbt_drone.yaml
train: ./datasets/images/train  # 实际存放 .npy 路径
val: ./datasets/images/val
nc: 1
names: ['person']

注意:Ultralytics 默认读取图像文件(.jpg/.png),但我们需要加载 .npy。因此需自定义数据加载器。

4. 自定义数据加载器

在 train.py 中重写 load_image 行为。这里使用 Monkey Patch 快速验证,更稳健的做法是继承 YOLODataset 并注册新类。

# train.py
from ultralytics import YOLO
import torch
import numpy as np
import os
from pathlib import Path

# 替换默认的图像加载方式
def custom_load_image(self, i):
    """Load 4-channel .npy image"""
    path = self.files[i]
    if path.endswith('.npy'):
        img = np.load(path)  # (H, W, 4)
        img = img.transpose(2, 0, 1)  # (4, H, W)
        img = torch.from_numpy(img).float()
        return img, img.shape[1], img.shape[2]
    else:
        # fallback
        return self._old_load_image(i)

# Monkey patch
from ultralytics.data.dataset import YOLODataset
YOLODataset._old_load_image = YOLODataset.load_image
YOLODataset.load_image = custom_load_image

# 修改标签加载(确保 .txt 对应 .npy)
def custom_get_label_file(self, img_path):
    return str(Path(img_path).with_suffix('.txt'))

YOLODataset.get_label_file = custom_get_label_file

5. 完整训练脚本

# train.py(完整版)
from ultralytics import YOLO
import torch
import numpy as np
from pathlib import Path

# === 自定义数据加载(支持 .npy)===
from ultralytics.data.dataset import YOLODataset

def load_image_npy(self, i):
    f = self.im_files[i]
    if f.endswith('.npy'):
        im = np.load(f)  # (H, W, 4)
        im = im.transpose(2, 0, 1)  # (4, H, W)
        im = torch.from_numpy(im).float()
        h, w = im.shape[1], im.shape[2]
        return im, h, w
    else:
        return self._orig_load_image(i)

def get_label_file_npy(self, img_path):
    return str(Path(img_path).with_suffix('.txt'))

# Patch
YOLODataset._orig_load_image = YOLODataset.load_image
YOLODataset.load_image = load_image_npy
YOLODataset.get_label_file = get_label_file_npy

# === 开始训练 ===
if __name__ == '__main__':
    model = YOLO('models/yolov8s-rgbt.yaml')  # 从头训练
    # 或加载预训练权重(需修改首层 conv1.weight)
    # model = YOLO('yolov8s.pt')
    # model.model.model[0].conv = torch.nn.Conv2d(4, 64, 3, 2, 1)  # 手动替换
    
    model.train(
        data='rgbt_drone.yaml',
        epochs=100,
        imgsz=512,
        batch=16,
        name='drone_rgbdet',
        project='runs',
        device=0,
        cache=False,
        workers=4
    )

6. 推理脚本

# detect.py
import torch
import numpy as np
import cv2
from ultralytics import YOLO

model = YOLO('runs/drone_rgbdet/weights/best.pt')

def detect_rgbd_pair(rgb_path, thermal_path):
    rgb = cv2.imread(rgb_path)  # (H, W, 3)
    thermal = cv2.imread(thermal_path, cv2.IMREAD_GRAYSCALE)  # (H, W)
    thermal = np.expand_dims(thermal, axis=2)
    fused = np.concatenate([rgb, thermal], axis=2)  # (H, W, 4)
    fused = fused.transpose(2, 0, 1)  # (4, H, W)
    fused = torch.from_numpy(fused).float().unsqueeze(0) / 255.0  # 归一化
    
    results = model(fused, augment=True)
    
    # 可视化:叠加在 RGB 图上
    annotated = results[0].plot()
    cv2.imshow('Detection', annotated)
    cv2.waitKey(0)

# 示例
# detect_rgbd_pair('test/rgb/001.jpg', 'test/thermal/001.jpg')

部署建议

方案说明
科研实验使用 .npy + 自定义 DataLoader
工程部署将 RGB + 红外拼接为 4 通道 TIFF / PNG(需扩展 OpenCV 支持)
加速推理导出 ONNX 后使用 TensorRT(需处理 4 通道输入)
替代融合策略中期融合(Two-Stream + 特征拼接)效果更佳,但需重写模型

目录

  1. 无人机视角下 RGB+ 红外对齐行人小目标检测数据集
  2. 模态与视角
  3. 规模
  4. 任务
  5. 数据集概览
  6. 系统构建方案
  7. 项目结构
  8. 1. 融合 RGB + 红外图像
  9. tools/fusergbthermal.py
  10. 2. 自定义 YOLOv8 模型
  11. YOLOv8s for RGBT (4-channel input)
  12. [from, repeats, module, args]
  13. 3. 数据集配置
  14. rgbt_drone.yaml
  15. 4. 自定义数据加载器
  16. train.py
  17. 替换默认的图像加载方式
  18. Monkey patch
  19. 修改标签加载(确保 .txt 对应 .npy)
  20. 5. 完整训练脚本
  21. train.py(完整版)
  22. === 自定义数据加载(支持 .npy)===
  23. Patch
  24. === 开始训练 ===
  25. 6. 推理脚本
  26. detect.py
  27. 示例
  28. detectrgbdpair('test/rgb/001.jpg', 'test/thermal/001.jpg')
  29. 部署建议
  • 💰 8折买阿里云服务器限时8折了解详情
  • 💰 8折买阿里云服务器限时8折购买
  • 🦞 5分钟部署阿里云小龙虾了解详情
  • 🤖 一键搭建Deepseek满血版了解详情
  • 一键打造专属AI 智能体了解详情
极客日志微信公众号二维码

微信扫一扫,关注极客日志

微信公众号「极客日志V2」,在微信中扫描左侧二维码关注。展示文案:极客日志V2 zeeklog

更多推荐文章

查看全部
  • Android Crash 收集与异常处理实现详解
  • 数据结构与算法:顺序表详解
  • 利用 AI 视觉模型优化 Unity 编辑器插件:从功能实现到界面美化
  • NL2SQL 领域研究报告:融合大语言模型的先进技术与代码实践
  • Spring AI 1.1.2 集成 MCP(Model Context Protocol)实战:以 Tavily 搜索为例
  • DCU BW1000 环境下 llama.cpp 推理 Qwen3-Coder-30B 实践与问题排查
  • Stable Diffusion v1.5 Archive 跨平台效果一致性保障与复现验证
  • OpenClaw 微信通道插件接入与配置指南
  • 数据结构初阶:详解线性表之顺序表
  • SpringBoot 登录认证全栈实现:Session、统一结果封装、MD5 加密与拦截器
  • Claude Code 环境搭建与项目实战详解
  • ToDesk ToClaw AI 实现科技新闻日报自动化实战
  • LIBWEBKIT2GTK-4.1-0 实战:构建轻量级浏览器
  • FPGA 中 DDS 方案设计:频率、幅度与波形可调
  • 纯 Java 手写 TopoJSON 生成器零依赖实战
  • 从小学到顶尖科学家:AI、数学、物理、信息学经典书单推荐
  • AI 大模型时代:新手与程序员的转型学习路径
  • 基于 RTX 5090 云服务器部署 Stable Diffusion WebUI 指南
  • C++ 基础入门实战指南
  • Sora 2 发布:AI 视频生成技术突破与开发者机遇

相关免费在线工具

  • 加密/解密文本

    使用加密算法(如AES、TripleDES、Rabbit或RC4)加密和解密文本明文。 在线工具,加密/解密文本在线工具,online

  • RSA密钥对生成器

    生成新的随机RSA私钥和公钥pem证书。 在线工具,RSA密钥对生成器在线工具,online

  • Mermaid 预览与可视化编辑

    基于 Mermaid.js 实时预览流程图、时序图等图表,支持源码编辑与即时渲染。 在线工具,Mermaid 预览与可视化编辑在线工具,online

  • 随机西班牙地址生成器

    随机生成西班牙地址(支持马德里、加泰罗尼亚、安达卢西亚、瓦伦西亚筛选),支持数量快捷选择、显示全部与下载。 在线工具,随机西班牙地址生成器在线工具,online

  • Gemini 图片去水印

    基于开源反向 Alpha 混合算法去除 Gemini/Nano Banana 图片水印,支持批量处理与下载。 在线工具,Gemini 图片去水印在线工具,online

  • curl 转代码

    解析常见 curl 参数并生成 fetch、axios、PHP curl 或 Python requests 示例代码。 在线工具,curl 转代码在线工具,online