目标检测数据集——无人机视觉VisDrone数据集

目标检测数据集——无人机视觉VisDrone数据集

随着无人机技术的飞速发展,无人机在航拍、监控、农业、物流等领域的应用日益广泛。与此同时,无人机视角下的视觉任务,如目标检测、目标跟踪和场景理解,也成为了计算机视觉研究的热点。然而,相比传统的地面视角数据集,无人机视角下的图像具有高度变化、小目标密集、复杂背景等独特挑战,这对现有算法提出了更高的要求。

为了应对这些挑战并推动无人机视觉技术的发展,天津大学机器学习与数据挖掘实验室推出了 VisDrone数据集。作为一个大规模、标注精细的无人机视觉数据集,VisDrone 不仅涵盖了丰富的场景和多样化的目标类别,还为研究人员提供了一个极具挑战性的测试平台。无论是小目标检测的精度提升,还是密集场景下的鲁棒性优化,VisDrone 都成为了学术界和工业界不可或缺的资源。该数据集采集自中国14个不同城市,覆盖复杂城市场景、交通枢纽、密集人群等多种环境。

VisDrone官方Github下载渠道可点击访问:

https://github.com/VisDrone/VisDrone-Dataset?tab=readme-ov-file

下载的数据集为VisDrone2019-DET-train,VisDrone2019-DET-val,VisDrone2019-DET-test-dev均含有标注,VisDrone2019-DET-test-challenge不含标注因此不在本文处理好的数据集中。

  • 训练集:6,471张图像
  • 验证集:548张图像
  • 测试集:1610张图像

下载下来的原始数据集为jpg+txt文件,这里的txt不是yolo训练可用的txt文件,需要对数据处理后才能使用。 这里我提供一个处理好的可直接用于目标检测训练的jpg+xml+txt文件。图片有两个文件夹,分别为原图和覆盖白色方块的图,可自行选择使用。

官方共有12个分类,分别为:

其中ignored regions为忽略的区域,有些区域包含了密集的很小的目标,无法进行标注的,所以我们要把这个区域忽视掉。因此对于这部分内容我们将这个区域从图片中覆盖白色方块进行遮挡。效果如下图。

带有白色方块及标注框的效果如下图

同样我提供了覆盖白色方块的图片和未覆盖白色方块的图片,需要用哪个可自行选择使用。

others忽略掉,因此转换后的类别共有10类,分别为:

["pedestrian", "people", "bicycle", "car", "van", "truck", "tricycle", "awning-tricycle", "bus", "motor"]

即获取的YOLO格式的类别顺序为上述顺序。

下图为训练过程中部分图像

下图为验证过程中部分图像

训练使用原图进行训练,整体精度在0.4左右。覆盖了白色方块的精度可自行测试精度。

下载数据集可以访问官网获取原始数据集:Github

需要处理后的数据集可通过 V🔍:笑脸惹桃花 获取。

Read more

部署Qwen3-VL-32b的踩坑实录:多卡跑大模型为何vLLM卡死而llama.cpp却能“大力出奇迹”?

部署Qwen3-VL-32b的踩坑实录:多卡跑大模型为何vLLM卡死而llama.cpp却能“大力出奇迹”?

踩坑实录:多卡跑大模型Qwen-VL,为何vLLM模型加载卡死而llama.cpp奇迹跑通还更快? 前言:部署经历 针对 Qwen2.5-32B-VL-Instruct 满血版模型的部署实战。 手头的环境是一台配备了 4张 NVIDIA A30(24GB显存) 的服务器。按理说,96GB的总显存足以吞下 FP16 精度的 32B 模型(约65GB权重)。然而,在使用业界标杆 vLLM 进行部署时,系统却陷入了诡异的“死锁”——显存占满,但推理毫无反应,最终超时报错。 尝试切换到 Ollama(底层基于 llama.cpp),奇迹发生了:不仅部署成功,而且运行流畅。这引发了我深深的思考:同样的硬件,同样模型,为何两个主流框架的表现天差地别? 本文将围绕PCIe通信瓶颈、Tensor Parallelism(张量并行) 与 Pipeline

AI驱动的虚拟现实与增强现实开发

AI驱动的虚拟现实与增强现实开发 关键词:AI、虚拟现实、增强现实、开发、算法、应用场景 摘要:本文深入探讨了AI驱动的虚拟现实(VR)与增强现实(AR)开发相关内容。首先介绍了研究的背景、目的、预期读者等信息。接着阐述了VR、AR及AI的核心概念与联系,并给出相应的原理和架构示意图。详细讲解了核心算法原理,包括使用Python代码示例。从数学模型和公式的角度进行剖析并举例说明。通过项目实战展示代码实现及解读。分析了实际应用场景,推荐了相关的学习资源、开发工具框架以及论文著作。最后总结了未来发展趋势与挑战,并对常见问题进行解答,提供扩展阅读和参考资料,旨在为开发者和研究者提供全面的技术指导。 1. 背景介绍 1.1 目的和范围 随着科技的飞速发展,虚拟现实(VR)和增强现实(AR)技术在娱乐、教育、医疗、工业等众多领域展现出巨大的应用潜力。而人工智能(AI)的融入,更是为VR和AR的发展带来了新的机遇和挑战。本文的目的在于深入探讨AI如何驱动VR与AR的开发,

Yolo11 基于DroneVehicle数据集的无人机视角下车辆目标检测

Yolo11 基于DroneVehicle数据集的无人机视角下车辆目标检测

1、关于DroneVehicle数据集介绍 DroneVenicle数据集是由天津大学收集、标注的大型无人机航拍车辆数据集。 DroneVehicle 数据集由无人机采集的共 56,878 幅图像组成,其中一半为 RGB 图像,其余为红外图像。我们对五个类别进行了带有方向性边界框的丰富标注。其中,汽车car 在 RGB 图像中有 389,779 个标注,在红外图像中有 428,086 个标注;卡车truck 在 RGB 图像中有 22,123 个标注,在红外图像中有 25,960 个标注;公交车bus 在 RGB 图像中有 15,333 个标注,在红外图像中有 16,590 个标注;面包车van 在

Qwen3论文阅读

1、核心架构改进: 1)注意力机制: 采用了 GQA (Grouped Query Attention) 以提高推理效率 什么是GQA注意力机制? 介于传统的多头注意力机制以及极简的MQA注意力机制之间,目标为平衡生成速度以及模型精度 首先我们先看一看多头注意力机制以及多询注意力机制的区别 MHA (Multi-Head Attention): 每个 Query (Q) 都有对应的 Key (K) 和 Value (V)。虽然效果最好,但在推理时需要缓存大量的 KV 状态(KV Cache),导致内存占用高,推理速度慢。 MQA (Multi-Query Attention): 所有的 Q 共享同一组 K 和 V。这极大地减少了内存占用和数据传输,速度极快,但由于表达能力大幅下降,模型性能(准确度)通常会受损。 GQA: