【旋转框】基于YOLO26深度学习的无人机视角车辆检测系统【python源码+Pyqt5界面+数据集+训练代码】

【旋转框】基于YOLO26深度学习的无人机视角车辆检测系统【python源码+Pyqt5界面+数据集+训练代码】

《------往期经典推荐------》

一、AI应用软件开发实战专栏【链接】

项目名称项目名称
1.【人脸识别与管理系统开发2.【车牌识别与自动收费管理系统开发
3.【手势识别系统开发4.【人脸面部活体检测系统开发
5.【图片风格快速迁移软件开发6.【人脸表表情识别系统
7.【YOLOv8多目标识别与自动标注软件开发8.【基于YOLOv8深度学习的行人跌倒检测系统
9.【基于YOLOv8深度学习的PCB板缺陷检测系统10.【基于YOLOv8深度学习的生活垃圾分类目标检测系统
11.【基于YOLOv8深度学习的安全帽目标检测系统12.【基于YOLOv8深度学习的120种犬类检测与识别系统
13.【基于YOLOv8深度学习的路面坑洞检测系统14.【基于YOLOv8深度学习的火焰烟雾检测系统
15.【基于YOLOv8深度学习的钢材表面缺陷检测系统16.【基于YOLOv8深度学习的舰船目标分类检测系统
17.【基于YOLOv8深度学习的西红柿成熟度检测系统18.【基于YOLOv8深度学习的血细胞检测与计数系统
19.【基于YOLOv8深度学习的吸烟/抽烟行为检测系统20.【基于YOLOv8深度学习的水稻害虫检测与识别系统
21.【基于YOLOv8深度学习的高精度车辆行人检测与计数系统22.【基于YOLOv8深度学习的路面标志线检测与识别系统
23.【基于YOLOv8深度学习的智能小麦害虫检测识别系统24.【基于YOLOv8深度学习的智能玉米害虫检测识别系统
25.【基于YOLOv8深度学习的200种鸟类智能检测与识别系统26.【基于YOLOv8深度学习的45种交通标志智能检测与识别系统
27.【基于YOLOv8深度学习的人脸面部表情识别系统28.【基于YOLOv8深度学习的苹果叶片病害智能诊断系统
29.【基于YOLOv8深度学习的智能肺炎诊断系统30.【基于YOLOv8深度学习的葡萄簇目标检测系统
31.【基于YOLOv8深度学习的100种中草药智能识别系统32.【基于YOLOv8深度学习的102种花卉智能识别系统
33.【基于YOLOv8深度学习的100种蝴蝶智能识别系统34.【基于YOLOv8深度学习的水稻叶片病害智能诊断系统
35.【基于YOLOv8与ByteTrack的车辆行人多目标检测与追踪系统36.【基于YOLOv8深度学习的智能草莓病害检测与分割系统
37.【基于YOLOv8深度学习的复杂场景下船舶目标检测系统38.【基于YOLOv8深度学习的农作物幼苗与杂草检测系统
39.【基于YOLOv8深度学习的智能道路裂缝检测与分析系统40.【基于YOLOv8深度学习的葡萄病害智能诊断与防治系统
41.【基于YOLOv8深度学习的遥感地理空间物体检测系统42.【基于YOLOv8深度学习的无人机视角地面物体检测系统
43.【基于YOLOv8深度学习的木薯病害智能诊断与防治系统44.【基于YOLOv8深度学习的野外火焰烟雾检测系统
45.【基于YOLOv8深度学习的脑肿瘤智能检测系统46.【基于YOLOv8深度学习的玉米叶片病害智能诊断与防治系统
47.【基于YOLOv8深度学习的橙子病害智能诊断与防治系统48.【基于深度学习的车辆检测追踪与流量计数系统
49.【基于深度学习的行人检测追踪与双向流量计数系统50.【基于深度学习的反光衣检测与预警系统
51.【基于深度学习的危险区域人员闯入检测与报警系统52.【基于深度学习的高密度人脸智能检测与统计系统
53.【基于深度学习的CT扫描图像肾结石智能检测系统54.【基于深度学习的水果智能检测系统
55.【基于深度学习的水果质量好坏智能检测系统56.【基于深度学习的蔬菜目标检测与识别系统
57.【基于深度学习的非机动车驾驶员头盔检测系统58.【太基于深度学习的阳能电池板检测与分析系统
59.【基于深度学习的工业螺栓螺母检测60.【基于深度学习的金属焊缝缺陷检测系统
61.【基于深度学习的链条缺陷检测与识别系统62.【基于深度学习的交通信号灯检测识别
63.【基于深度学习的草莓成熟度检测与识别系统64.【基于深度学习的水下海生物检测识别系统
65.【基于深度学习的道路交通事故检测识别系统66.【基于深度学习的安检X光危险品检测与识别系统
67.【基于深度学习的农作物类别检测与识别系统68.【基于深度学习的危险驾驶行为检测识别系统
69.【基于深度学习的维修工具检测识别系统70.【基于深度学习的维修工具检测识别系统
71.【基于深度学习的建筑墙面损伤检测系统72.【基于深度学习的煤矿传送带异物检测系统
72.【基于深度学习的老鼠智能检测系统

二、机器学习实战专栏【链接】,已更新31期,欢迎关注,持续更新中~~
三、深度学习【Pytorch】专栏【链接】
四、【Stable Diffusion绘画系列】专栏【链接】
五、YOLOv8改进专栏【链接】持续更新中~~
六、YOLO性能对比专栏【链接】,持续更新中~

《------正文------》

基本功能演示

视频演示地址:https://www.bilibili.com/video/BV1C7wezdEDk

摘要:低空经济下,无人机成为交通监控关键节点,但传统水平框检测在俯视视角下易受背景干扰且无法获取车辆朝向。基于YOLO的旋转框(OBB)检测系统突破了这一局限,不仅能精准定位,还能实时解算车辆的长、宽及角度,完整还原其真实姿态与空间占用。本文基于YOLO26深度学习框架,通过17325张实际场景中无人机视角车辆相关图片,训练一个车辆检测模型,并且采用了最新的旋转框检测技术,其相对于传统的水平框检测,结果更加精准可靠。最终基于训练好的模型制作了一款带UI界面的无人机视角车辆检测系统,更便于进行功能的展示。该系统是基于pythonPyQT5开发的,支持图片视频以及摄像头进行目标检测,并保存检测结果。本文提供了完整的Python代码和使用教程,给感兴趣的小伙伴参考学习,完整的代码资源文件获取方式见文末

文章目录

点击跳转至文末《完整相关文件及源码》获取


研究背景

随着低空经济的崛起,无人机已成为城市感知与交通监控的关键节点。然而,传统基于水平矩形框(Axis-Aligned Bounding Box)的目标检测算法在处理无人机俯视视角时存在显著局限:当车辆倾斜停放、位于弯道或密集拥堵时,水平框会包含大量背景噪声(如相邻车道、绿化带),导致定位精度下降且无法获取车辆真实的朝向信息。基于YOLO框架研发的无人机视角旋转框(OBB)车辆检测系统,突破了这一瓶颈。该系统不仅能精准锁定车辆位置,更能通过旋转框实时解算每辆车的长、宽及精确旋转角度,还原车辆在真实世界中的姿态与占据空间。这一技术革新极大提升了复杂场景下的检测信噪比,为高精度交通流量统计、违章行为分析(如逆向行驶)、自动驾驶高精地图更新及智慧停车管理提供了不可或缺的细粒度数据支撑,是推动城市交通治理从“粗放式监控”向“精细化感知”跨越的重要引擎。

旋转框检测优势

本文采用的是旋转框目标检测模型,为什么采用旋转框检测而不采用传统的水平框检测呢?因为其相较于传统水平框的目标框(Axis-Aligned Bounding Box, AABB)具有以下优势:

1. 更紧密的物体包围

在这里插入图片描述


示例:图中蓝色框为传统水平框检测结果,红色为旋转框检测结果

问题:传统框是水平和垂直的矩形,无法贴合倾斜或长宽比悬殊的物体(如车辆、船只、文本等),导致框内包含大量无关背景区域。

优势:旋转框通过引入角度参数(如旋转角或方向角),能更精确地贴合物体轮廓,减少冗余背景,提升检测的语义准确性。

2. 减少密集场景中的重叠问题

在这里插入图片描述


示例:左图为传统水平框检测结果,右图为旋转框检测结果

问题:传统框在物体密集或排列不规则时,检测框容易大面积重叠,导致非极大值抑制(NMS)误删正确检测。

优势:旋转框通过角度对齐物体,降低框之间的重叠率,缓解NMS的误判问题,提升召回率。

3. 提升倾斜物体的检测精度
问题:传统框对倾斜物体的标注会引入大量背景噪声,导致分类置信度下降或定位误差增大。

优势:旋转框通过方向感知建模,更适应物体的几何特性,尤其适合处理具有显著方向性的目标(如飞机、风力发电机叶片)。

示例:
航拍图像中不同朝向的飞机、医学影像中倾斜的器官结构。

4. 支持更复杂的下游任务

在这里插入图片描述

优势:旋转框提供的角度和形状信息可直接用于后续任务,如:
实例分割:更精准的物体掩膜生成。
姿态估计:结合角度信息推断物体朝向。
运动预测(如自动驾驶):通过方向角预判车辆行驶轨迹。

5. 特定领域的必要需求
遥感图像:建筑物、农田等目标通常具有任意方向,传统框难以满足检测需求。
文档分析:倾斜或弯曲的文本行需要旋转框准确定位。
工业检测:机械零件、PCB板元件的方向对缺陷检测至关重要。

6. 更严格的评估指标
传统IoU(交并比)对旋转框不敏感,旋转框通常使用 旋转IoU(Rotated IoU) 或 方向敏感损失函数,能更真实反映模型性能。

局限性
尽管旋转框有上述优势,但也面临挑战:
标注成本高:需要标注角度,工具和人工成本更高。
模型复杂度:需设计角度回归分支,可能增加训练难度。
计算开销:旋转框的IoU计算复杂度高于传统框。

总的来说,旋转框在密集场景、倾斜物体、方向敏感任务中优势显著,但其适用性需结合具体场景权衡。传统框因简单高效,仍是通用场景的主流选择,而旋转框是特定领域(如遥感、文本检测)的重要补充。

系统应用场景

交通流量分析:利用旋转框角度精准区分车道,解决跨道误检;实时统计车流、车型及排队长度,分析变道意图,辅助信号灯智能配时。
智慧停车监测:通过长宽与角度数据,精准识别压线、斜停等不规范行为,生成车位热力图以引导泊车,提升空间利用率。
安保违停执法:自动识别禁停区车辆,结合角度与尺寸判断滞留时长及车型,辅助非现场执法取证。
车路协同增强:补充路侧感知盲区,向网联车辆下发全局位置、朝向及尺寸数据,助力车辆预判轨迹与冲突。

主要工作内容

本文的主要内容包括以下几个方面:

  1. 搜集与整理数据集:搜集整理实际场景中无人机视角车辆的相关数据图片,并进行相应的数据处理,为模型训练提供训练数据集;
  2. 训练模型:基于整理的数据集,根据最前沿的YOLO26旋转框检测技术训练目标检测模型,实现对需要检测的对象进行有效检测的功能;
  3. 模型性能评估:对训练出的模型在验证集上进行了充分的结果评估和对比分析,主要目的是为了揭示模型在关键指标(如Precision、Recall、mAP50和mAP50-95等指标)上的表现情况
  4. 可视化系统制作:基于训练出的目标检测模型,搭配Pyqt5制作的UI界面,用python开发了一款界面简洁的软件系统,可支持图片、视频以及摄像头检测,同时可以将图片或者视频检测结果进行保存。其目的是为检测系统提供一个用户友好的操作平台,使用户能够便捷、高效地进行检测任务。

软件初始界面如下图所示:

在这里插入图片描述

检测结果界面如下:

在这里插入图片描述
注:右侧窗口中上面窗口为原始图片,下方窗口为图片检测结果。

一、软件核心功能介绍及效果演示

软件主要功能

1. 可用于实际场景中的无人机视角车辆检测,分2个检测类别:['小型车辆','大型车辆'];
2. 支持图片、视频及摄像头进行检测,同时支持图片的批量检测
3. 界面可实时显示目标位置目标总数置信度用时等信息;
4. 支持图片或者视频检测结果保存
5. 支持将图片的检测结果保存为csv文件;

界面参数设置说明

在这里插入图片描述

置信度阈值:也就是目标检测时的conf参数,只有检测出的目标框置信度大于该值,结果才会显示;
交并比阈值:也就是目标检测时的iou参数,对检测框重叠比例iou大于该阈值的目标框进行过滤【也就是说假如两检测框iou大于该值的话,会过滤掉其中一个,该值越小,重叠框会越少】;

检测结果说明

在这里插入图片描述

显示标签名称与置信度:表示是否在检测图片上标签名称与置信度,显示默认不勾选,如果勾选则会在检测图片上显示标签名称与置信度;
总目标数:表示画面中检测出的目标数目;
目标选择:可选择单个目标进行位置信息、置信度等信息查看。
旋转框相关信息:
中心点坐标:表示旋转矩形框的中心点位置坐标;
旋转角度(°):表示矩形框长边与水平线之间小于90°的夹角;
旋转框长:表示旋转框的长边长度(px像素单位);
旋转框宽:表示旋转框的宽长度(px像素单位);

主要功能说明

功能视频演示见文章开头,以下是简要的操作描述。

(1)图片检测说明

点击打开图片按钮,选择需要检测的图片,或者点击打开文件夹按钮,选择需要批量检测图片所在的文件夹,操作演示如下:
点击目标下拉框后,可以选定指定目标的结果信息进行显示。
点击保存按钮,会对检测结果进行保存,存储路径为:save_data目录下,同时会将图片检测信息保存csv文件
注:1.右侧目标位置默认显示置信度最大一个目标位置,可用下拉框进行目标切换。所有检测结果均在左下方表格中显示。

(2)视频检测说明

点击视频按钮,打开选择需要检测的视频,就会自动显示检测结果,再次点击可以关闭视频。
点击保存按钮,会对视频检测结果进行保存,存储路径为:save_data目录下。

(3)摄像头检测说明

点击打开摄像头按钮,可以打开摄像头,可以实时进行检测,再次点击,可关闭摄像头。

(4)保存图片与视频检测说明

点击保存按钮后,会将当前选择的图片【含批量图片】或者视频的检测结果进行保存,对于图片图片检测还会保存检测结果为csv文件,方便进行查看与后续使用。检测的图片与视频结果会存储在save_data目录下。
注:暂不支持视频文件的检测结果保存为csv文件格式。

保存的检测结果文件如下:

在这里插入图片描述

图片文件保存的csv文件内容如下,包括图片路径、目标在图片中的编号、目标类别、置信度、中心点坐标、旋转框长、旋转框宽、旋转角度

在这里插入图片描述

二、模型的训练、评估与推理

1.YOLO26介绍

本项目采用的是最新的YOLO26模型。YOLO26 是 Ultralytics 2026 年 1 月推出的新一代计算机视觉模型,主打边缘优先、高效部署。它采用端到端免 NMS 架构,移除 DFL 模块,CPU 推理速度较前代提升 43%;搭配 MuSGD 优化器与 ProgLoss+STAL 损失策略,强化小目标检测能力,支持检测、分割、姿势估计等多任务,可无缝适配树莓派、嵌入式设备等终端,广泛应用于智慧农业、安防监控等领域。
YOLO各版本性能对比:

在这里插入图片描述

YOLO26创新点

YOLO26的性能飞跃源于四大核心技术创新,从模型架构到训练机制全面优化:

1. 移除DFL模块,简化预测流程

早期YOLO模型依赖分布焦点损失(DFL)提升边界框精度,但这一模块增加了部署复杂度,且存在固定回归限制。YOLO26彻底移除DFL,不仅简化了边界框预测逻辑,提升了硬件兼容性,还解决了超大目标检测的可靠性问题,让模型在边缘设备上的导出与运行更顺畅。

2. 端到端无NMS推理,降低 latency

传统目标检测需通过非极大值抑制(NMS)进行后处理,过滤重叠预测框——这一步骤会增加延迟、提升部署难度。YOLO26采用原生端到端架构,直接输出最终预测结果,内部自动处理重复预测,彻底省去NMS环节,大幅降低推理延迟与集成风险,完美适配实时边缘场景。

3. ProgLoss+STAL,提升检测精度

  • 渐进式损失平衡(ProgLoss):让模型训练过程更稳定,收敛更平滑,减少训练波动
  • 小目标感知标签分配(STAL):针对小目标、低可见度目标优化学习机制,解决边缘场景中“难检测”问题
    两项技术结合,让YOLO26在复杂场景中仍能保持高可靠检测,尤其适用于物联网、机器人、航拍等小目标密集场景。

4. MuSGD优化器,强化训练稳定性

YOLO26采用全新混合优化器MuSGD,融合传统随机梯度下降(SGD)的强泛化能力与大语言模型(LLM)训练中的先进优化思路。该优化器灵感源自Moonshot AI的Kimi K2,能让模型更快达到高性能水平,同时降低训练不稳定性,尤其在大型复杂数据集训练中表现突出。

数据集准备与训练

本文主要基于YOLO26n-obb旋转框检测模型进行模型的训练,训练完成后对模型在验证集上的表现进行全面的性能评估。总体流程包括:数据集准备、模型训练、模型评估。

1. 数据集准备

通过网络上搜集关于实际场景中无人机视角车辆的相关图片,并使用roLabelImg标注工具对每张图片进行标注,分2个检测类别['小型车辆','大型车辆']

最终数据集一共包含17325张图片,其中训练集包含12118张图片验证集包含2599张图片,测试集包含2608张图片
部分数据集图像及标注如下图所示:

在这里插入图片描述


在这里插入图片描述


在这里插入图片描述

数据集各类别数目分布情况如下:

在这里插入图片描述

2.模型训练

准备好数据集后,将图片数据以如下格式放置在项目目录中。在项目目录中新建datasets目录,同时将检测的图片分为训练集与验证集放入Data目录下。

在这里插入图片描述

自定义数据集格式

数据集格式

在这里插入图片描述

YOLO OBB格式通过其四个角点指定边界框,坐标在0和1之间归一化。它遵循以下格式:

class_index, x1, y1, x2, y2, x3, y3, x4, y4 

在内部,YOLO以xywhr格式处理损失和输出,该格式表示边界框的中心点(xy)、宽度、高度和旋转。

img

同时我们需要新建一个data.yaml文件,用于存储训练数据的路径及模型需要进行检测的类别。YOLOv11在进行模型训练时,会读取该文件的信息,用于进行模型的训练与验证。data.yaml的具体内容如下:

#Dataset configuration. train: E:\MyCVProgram\4obbProgram\DroneViewVehicle_26\datasets\train\images val: E:\MyCVProgram\4obbProgram\DroneViewVehicle_26\datasets\val\images test: E:\MyCVProgram\4obbProgram\DroneViewVehicle_26\datasets\test\images #Class numbers. nc:2#Class names. names:['small-vehicle','large-vehicle']

注:train与val后面表示需要训练图片的路径,建议直接写自己文件的绝对路径。
数据准备完成后,通过调用train.py文件进行模型训练,epochs参数用于调整训练的轮数,batch参数用于调整训练的批次大小【根据内存大小调整,最小为1】,optimizer设定的优化器为SGD,训练代码如下:

#coding:utf-8from ultralytics import YOLO import matplotlib matplotlib.use('TkAgg')# 模型配置文件 model_yaml_path ="ultralytics/cfg/models/26/yolo26-obb.yaml"#数据集配置文件 data_yaml_path =r'datasets/data.yaml'#预训练模型 pre_model_name ='yolo26n-obb.pt'if __name__ =='__main__':#加载预训练模型 model = YOLO(model_yaml_path).load(pre_model_name)#训练模型 results = model.train(data=data_yaml_path, epochs=150, batch=32, name='train_26')

模型常用训练超参数参数说明:
模型的训练设置包括训练过程中使用的各种超参数和配置。这些设置会影响模型的性能、速度和准确性。关键的训练设置包括批量大小、学习率、动量和权重衰减。此外,优化器、损失函数和训练数据集组成的选择也会影响训练过程。对这些设置进行仔细的调整和实验对于优化性能至关重要。
以下是一些常用的模型训练参数和说明:

参数名默认值说明
modelNone指定用于训练的模型文件。接受指向 .pt 预训练模型或 .yaml 配置文件。对于定义模型结构或初始化权重至关重要。
dataNone数据集配置文件的路径(例如 coco8.yaml).该文件包含特定于数据集的参数,包括训练数据和验证数据的路径、类名和类数。
epochs100训练总轮数。每个epoch代表对整个数据集进行一次完整的训练。调整该值会影响训练时间和模型性能。
patience100在验证指标没有改善的情况下,提前停止训练所需的epoch数。当性能趋于平稳时停止训练,有助于防止过度拟合。
batch16批量大小,有三种模式:设置为整数(例如,’ Batch =16 ‘), 60% GPU内存利用率的自动模式(’ Batch =-1 ‘),或指定利用率分数的自动模式(’ Batch =0.70 ')。
imgsz640用于训练的目标图像尺寸。所有图像在输入模型前都会被调整到这一尺寸。影响模型精度和计算复杂度。
deviceNone指定用于训练的计算设备:单个 GPU (device=0)、多个 GPU (device=0,1)、CPU (device=cpu),或苹果芯片的 MPS (device=mps).
workers8加载数据的工作线程数(每 RANK 多 GPU 训练)。影响数据预处理和输入模型的速度,尤其适用于多 GPU 设置。
nameNone训练运行的名称。用于在项目文件夹内创建一个子目录,用于存储训练日志和输出结果。
pretrainedTrue决定是否从预处理模型开始训练。可以是布尔值,也可以是加载权重的特定模型的字符串路径。提高训练效率和模型性能。
optimizer'auto'为训练模型选择优化器。选项包括 SGD, Adam, AdamW, NAdam, RAdam, RMSProp 等,或 auto 用于根据模型配置进行自动选择。影响收敛速度和稳定性
lr00.01初始学习率(即 SGD=1E-2, Adam=1E-3) .调整这个值对优化过程至关重要,会影响模型权重的更新速度。
lrf0.01最终学习率占初始学习率的百分比 = (lr0 * lrf),与调度程序结合使用,随着时间的推移调整学习率。

3. 训练结果评估

在深度学习中,我们通常用损失函数下降的曲线来观察模型训练的情况。YOLO26在训练时主要包含三个方面的损失:定位损失(box_loss)、分类损失(cls_loss)和动态特征损失(dfl_loss),在训练结束后,可以在runs/目录下找到训练过程及结果文件,如下所示:

在这里插入图片描述

各损失函数作用说明:
定位损失box_loss:预测框与标定框之间的误差(GIoU),越小定位得越准;
分类损失cls_loss:计算锚框与对应的标定分类是否正确,越小分类得越准;
动态特征损失(dfl_loss):DFLLoss是一种用于回归预测框与目标框之间距离的损失函数。在计算损失时,目标框需要缩放到特征图尺度,即除以相应的stride,并与预测的边界框计算Ciou Loss,同时与预测的anchors中心点到各边的距离计算回归DFLLoss。
本文训练结果如下:

在这里插入图片描述

我们通常用PR曲线来体现精确率和召回率的关系,本文训练结果的PR曲线如下。mAP表示Precision和Recall作为两轴作图后围成的面积,m表示平均,@后面的数表示判定iou为正负样本的阈值。[email protected]:表示阈值大于0.5的平均mAP,可以看到本文模型目标检测的[email protected]值为0.929,对于小目标检测来说,检测结果还是十分错的。

在这里插入图片描述

4. 使用模型进行推理

模型训练完成后,我们可以得到一个最佳的训练结果模型best.pt文件,在runs/train/weights目录下。我们可以使用该文件进行后续的推理检测。
图片检测代码如下:

#coding:utf-8from ultralytics import YOLO import cv2 # 所需加载的模型目录 path ='models/best.pt'# 需要检测的图片地址 img_path ="TestFiles/00288_jpg.rf.1b2bf11b46ae9f7046a671618fb08c03.jpg"# 加载预训练模型# conf 0.25 置信度阈值# iou 0.7 iou阈值 model = YOLO(path, task='obb')# 检测图片 results = model(img_path) res = results[0].plot(labels=False)# res = cv2.resize(res,dsize=None,fx=0.5,fy=0.5,interpolation=cv2.INTER_LINEAR) cv2.imshow("Result", res)# cv2.imwrite("result.jpg", res) cv2.waitKey(0)

执行上述代码后,会将执行的结果直接标注在图片上,结果如下:

在这里插入图片描述

更多检测结果示例如下:

在这里插入图片描述


在这里插入图片描述


在这里插入图片描述


在这里插入图片描述

四、可视化系统制作

基于上述训练出的目标检测模型,为了给此检测系统提供一个用户友好的操作平台,使用户能够便捷、高效地进行检测任务。博主基于Pyqt5开发了一个可视化的系统界面,通过图形用户界面(GUI),用户可以轻松地在图片、视频和摄像头实时检测之间切换,无需掌握复杂的编程技能即可操作系统。【系统详细展示见第一部分内容】

Pyqt5详细介绍

关于Pyqt5的详细介绍可以参考之前的博客文章:《Python中的Pyqt5详细介绍:基本机构、部件、布局管理、信号与槽、跨平台》,地址:

https://a-xu-ai.blog.ZEEKLOG.net/article/details/143273797

系统制作

博主基于Pyqt5框架开发了此款无人机视角车辆检测系统即文中第一部分的演示内容,能够很好的支持图片、视频及摄像头进行检测,同时支持检测结果的保存

通过图形用户界面(GUI),用户可以轻松地在图片、视频和摄像头实时检测之间切换,无需掌握复杂的编程技能即可操作系统。这不仅提升了系统的可用性和用户体验,还使得检测过程更加直观透明,便于结果的实时观察和分析。此外,GUI还可以集成其他功能,如检测结果的保存与导出、检测参数的调整,从而为用户提供一个全面、综合的检测工作环境,促进智能检测技术的广泛应用。

在这里插入图片描述

关于该系统涉及到的完整源码、UI界面代码、数据集、训练代码、训练好的模型、测试图片视频等相关文件,均已打包上传,感兴趣的小伙伴可以通过下载链接自行获取。


【获取方式】

在这里插入图片描述


本文涉及到的完整全部程序文件:包括python源码、数据集、训练好的结果文件、训练代码、UI源码、测试图片视频等(见下图),获取方式见文末:

在这里插入图片描述
注意:该代码基于Python3.9开发,运行界面的主程序为MainProgram.py,其他测试脚本说明见上图。为确保程序顺利运行,请按照程序运行说明文档txt配置软件运行所需环境。

Read more

前端如何调用后端接口(HTML + JS & Vue )

本文将以 Go 语言后端 为例,详细介绍: * Go 后端接口如何设计 * 接口的请求 / 响应结构 * 前端如何用 HTML + JS 调用 Go 接口 * 前端如何用 Vue 工程模式 调用 Go 接口 * 两种方式的区别与适用场景 一、整体架构说明 前后端分离架构 浏览器   |   | HTTP 请求(JSON)   ↓ 前端(HTML / Vue)   |   | HTTP 请求   ↓ Go 后端(API)   |   | JSON 响应   ↓ 前端渲染页面 * 前端:负责 页面 + 交互 * 后端(Go):负责 业务逻辑 + 数据处理 * 通信方式:

Nuxt 4 + WebAssembly 实战:从零搭建媲美 TinyPNG 的浏览器端图片压缩工具

Nuxt 4 + WebAssembly 实战:从零搭建媲美 TinyPNG 的浏览器端图片压缩工具

前言 你有没有想过,TinyPNG 把你的图片压小了 70%,它到底做了什么?答案是:JPEG 用的 MozJPEG 编码器,PNG 用的是有损量化(把 1600 万色降到 256 色)。这些算法本身是开源的,而且都已经有了 WebAssembly 移植版。 换句话说,你完全可以在浏览器里跑跟 TinyPNG 一样的压缩算法,不需要任何服务端。 我最近在做 PixelSwift,就是基于这个思路实现的纯前端图片工具。本文是系列第一篇,完整走一遍图片压缩功能的技术实现,从 Vite 配置 WASM 到 Web Worker 通信到三种格式的编码引擎。 一、整体架构设计 1.1 技术栈 层技术选型理由框架Nuxt 4 + Vue 3SSR 做

Spring 核心技术解析【纯干货版】- XV:Spring 网络模块 Spring-Web 模块精讲

Spring 核心技术解析【纯干货版】- XV:Spring 网络模块 Spring-Web 模块精讲

Spring Framework 作为 Java 生态中最流行的企业级开发框架,提供了丰富的模块化支持。其中,Spring Web 模块是支撑 Web 开发的基础组件,无论是传统的 MVC 应用,还是 REST API 及微服务架构,都离不开它的核心能力。 本篇文章将深入解析 Spring Web 模块的核心概念、依赖关系、作用及关键组件,并通过实际案例展示如何使用 Spring Web 进行 RESTful API 调用。本文力求内容精炼、干货满满,帮助你掌握 Spring Web 的核心技术点。 文章目录 * 1、Spring-Web 模块介绍 * 1.1、Spring-Web 模块概述 * 1.2、Spring-Web