基于 YOLO 标注格式的无人机航拍人员搜救检测数据集
背景
在自然灾害或事故灾难等突发场景中,人员搜救是应急响应的核心任务。传统方式受地形、天气和视野限制,效率与安全性面临挑战。无人机航拍技术凭借机动性强、覆盖范围广等优势,已成为重要辅助手段。
然而,航拍图像中的人员目标通常尺寸小、分布稀疏且背景复杂(如农田、荒漠、废墟等),人工筛查效率低且易遗漏。构建面向无人机航拍场景的人员检测数据集,支撑自动化算法的训练与评估,对提升搜救效率、降低救援风险具有重要意义。
本数据集聚焦无人机视角下的人员检测任务,通过采集多样化场景下的航拍图像并进行标准化标注,为相关算法研究与工程应用提供数据支撑。
数据详情
规模与结构
数据集共包含 2439 张 JPG 格式图像,对应 2440 个标注文件。按功能划分为三个子集:
- 训练集(Train):1779 张图像及标注,用于模型参数学习与拟合。
- 验证集(Valid):439 张图像及标注,用于性能评估与超参数调优。
- 测试集(Test):221 张图像及标注,用于评估模型泛化能力。
目录结构清晰,图像与标注分别存储于独立目录下,便于调用:
- 图像文件:
train/images,valid/images,test/images - 标注文件:
train/labels,valid/labels,test/labels(YOLO 格式 TXT,含类别索引及归一化边界框坐标)
标注类别
数据集覆盖两类核心标注:
- 人员(Humans):航拍视角下的人员个体,涵盖不同姿态、着装和光照条件。
- 背景(background):除人员外的其他区域,用于区分目标与非目标。
场景多样性
图像采集自真实航拍场景,环境变化丰富以提升模型泛化能力:
- 地形地貌:农田、荒漠、废墟、道路、居民区、工业场地等,背景纹理差异显著。
- 目标状态:人员目标尺寸较小,部分存在遮挡、密集分布或与背景颜色相近的情况。
- 光照条件:涵盖白天不同时段,模拟强光直射到弱光环境的视觉变化。
- 拍摄视角:高空俯视,目标分布稀疏,符合典型搜救特征。



