基于YOLO26深度学习的无人机视角路面病害检测识别系统【python源码+Pyqt5界面+数据集+训练代码】
《博主简介》
小伙伴们好,我是阿旭。
专注于计算机视觉领域,包括目标检测、图像分类、图像分割和目标跟踪等项目开发,提供模型对比实验、答疑辅导等。
《------往期经典推荐------》
二、机器学习实战专栏【链接】,已更新31期,欢迎关注,持续更新中~~
三、深度学习【Pytorch】专栏【链接】
四、【Stable Diffusion绘画系列】专栏【链接】
五、YOLOv8改进专栏【链接】,持续更新中~~
六、YOLO性能对比专栏【链接】,持续更新中~
《------正文------》
目录
基本功能演示
项目视频演示地址:https://www.bilibili.com/video/BV19nP4ztE2T/
摘要:交通规模扩张致养护需求激增,传统人工或车载检测存在效率低、覆盖窄、主观强及难识微瑕等痛点,易致“小病拖大”,增加成本并威胁安全。本文基于YOLO26的深度学习框架,通过6341张实际场景中无人机视角路面病害的相关图片,训练了一个路面病害检测模型,可检测4种路面病害,并根据病害加权算法评估严重等级。最终基于训练好的模型制作了一款带UI界面的无人机视角路面病害检测识别系统,更便于实际应用。该系统是基于python与PyQT5开发的,支持图片、视频以及摄像头进行目标检测,并保存检测结果。本文提供了完整的Python代码和使用教程,给感兴趣的小伙伴参考学习,完整的代码资源文件获取方式见文末。
研究背景
随着交通基础设施规模的不断扩大,路面养护需求日益激增,传统的人工巡检或车载检测方式存在效率低下、覆盖面有限、主观性强且难以及时发现微小病害等痛点,往往导致“小病拖成大病”,增加养护成本并威胁行车安全。基于YOLO深度学习框架研发的无人机视角路面病害检测识别系统,利用高空广域视角优势,能够精准识别龟裂、纵向裂缝、坑洞及横向裂缝四种典型病害,并通过加权算法智能量化评估路面严重程度(轻微、中等、严重)。该系统的应用实现了从“被动响应”到“主动预防”的养护模式转变,不仅大幅提升了道路检测的自动化水平与数据客观性,还能为养护决策提供科学依据,对延长道路使用寿命、保障公众出行安全及优化交通资源配置具有极高的实用价值和社会意义。
应用场景
高速公路与国省道定期巡检:替代传统人工徒步或低速车载巡查,利用无人机快速覆盖长距离路段,自动识别并统计四类病害,实时生成严重程度报告,帮助管理部门制定精准的年度或季度养护计划。城市道路精细化管养:针对城市复杂路网,特别是桥梁引道、匝道等人工难达区域进行高频次检测,通过严重程度分级预警,实现“轻微病害及时修补,严重病害立即封控”,减少因路面破损引发的交通事故。农村公路“村村通”质量监测:解决农村地区道路分散、里程长、专业检测力量不足的难题,低成本、高效率地完成大范围路况普查,确保农村公路养护资金用在刀刃上,助力乡村振兴基础设施建设。机场跑道与停机坪安全检测:应用于对平整度要求极高的机场区域,精准识别微小的龟裂和裂缝,防止异物吸入飞机引擎或影响起降安全,确保航空枢纽的高效安全运行。施工验收与质量回溯:在新建或大修道路竣工阶段,利用系统进行全覆盖验收检测,客观量化路面质量等级;同时建立病害电子档案,长期追踪病害发展趋势,为工程质量责任追溯提供数据支撑。
主要工作内容
本文的主要内容包括以下几个方面:
搜集与整理数据集:搜集整理实际场景中无人机视角路面病害的相关数据图片,并进行相应的数据标注与处理,为模型训练提供训练数据集;训练模型:基于整理的数据集,根据最前沿的YOLO26目标检测技术训练目标检测模型,实现对需要检测的对象进行有效检测的功能;模型性能评估:对训练出的模型在验证集上进行了充分的结果评估和对比分析,主要目的是为了揭示模型在关键指标(如Precision、Recall、mAP50和mAP50-95等指标)上的表现情况。可视化系统制作:基于训练出的目标检测模型,搭配Pyqt5制作的UI界面,用python开发了一款界面简洁的软件系统,可支持图片、视频以及摄像头检测,同时可以将图片或者视频检测结果进行保存。其目的是为检测系统提供一个用户友好的操作平台,使用户能够便捷、高效地进行检测任务。
软件初始界面如下图所示:
检测结果界面如下:
一、软件核心功能介绍及效果演示
软件主要功能
1. 可用于无人机视角中的路面病害检测,分4个检测类别:['龟裂','纵向裂缝','坑洞','横向裂缝'];
2. 支持图片、视频及摄像头进行检测,同时支持图片的批量检测;
3. 能够统计每类病害数量,并根据检测到的病害加权值,判断路面病害严重等级;
4. 界面可实时显示目标位置、目标总数、置信度、用时、检测结果等信息;
5. 支持图片或者视频的检测结果保存;
6. 支持将图片的检测结果保存为csv文件;
界面参数设置说明

置信度阈值:也就是目标检测时的conf参数,只有检测出的目标框置信度大于该值,结果才会显示;
交并比阈值:也就是目标检测时的iou参数,对检测框重叠比例iou大于该阈值的目标框进行过滤【也就是说假如两检测框iou大于该值的话,会过滤掉其中一个,该值越小,重叠框会越少】;
检测结果说明

病害总数:表示画面中检测出的目标数目;严重等级:根据每类病害权重计算出的加权值,判断当前严重程度,分4类:正常,轻微,中等,严重。柱状图:代表当前画面每类病害的数量;显示标签名称与置信度:表示是否在检测图片上标签名称与置信度,显示默认勾选,如果不勾选则不会在检测图片上显示标签名称与置信度;目标选择:可选择单个目标进行位置信息、置信度查看。目标位置:表示所选择目标的检测框,左上角与右下角的坐标位置。默认显示的是置信度最大的一个目标信息;
病害严重等级说明
根据检测出的病害数量进行严重等级划分,核心思路是:先区分不同病害的危害权重,再结合数量和检测面积做综合评估,避免只看绝对数量而忽略病害类型和路面规模的影响。
定义不同病害的危害权重
不同类型的路面病害对行车安全和结构耐久性的影响差异很大,需要赋予不同的权重系数(可根据行业规范或项目需求调整),本项目定义如下:
| 病害类型 | 危害程度 | 权重系数 | 说明 |
|---|---|---|---|
| 坑洞 | 极高 | 3.0 | 直接影响行车安全,易引发爆胎、侧翻等事故,危害最大 |
| 纵向裂缝 | 高 | 2.0 | 沿行车方向延伸,易导致路面结构层破坏,影响耐久性 |
| 横向裂缝 | 中 | 1.5 | 垂直行车方向,相对影响稍小,但密集出现时也会加速路面损坏 |
| 龟裂 | 中 | 1.0 | 面积大但发展相对缓慢,主要影响路面平整度和使用寿命 |
计算综合严重度评分
通过加权求和,将不同病害的数量转化为统一的严重度指标,加权值定义如下:

严重等级划分
这里直接按照上述加权严重度进行图片病害严重程度划分3个等级,定义如下:
| 严重等级 | 加权严重度 | 适用场景 |
|---|---|---|
| 轻微 | < 5 | 单张图片中仅见少量裂缝 |
| 中等 | 5 ~ 15 | 存在多处裂缝或少量坑洞 |
| 严重 | >15 | 病害较多,局部影响行车安全 |
界面上显示效果如下:



主要功能说明
功能视频演示见文章开头,以下是简要的操作描述。
(1)图片检测说明
点击打开图片按钮,选择需要检测的图片,或者点击打开文件夹按钮,选择需要批量检测图片所在的文件夹,操作演示如下:
点击目标下拉框后,可以选定指定目标的结果信息进行显示。
点击保存按钮,会对检测结果进行保存,存储路径为:save_data目录下,同时会将图片检测信息保存csv文件。注:1.右侧目标位置默认显示置信度最大一个目标位置,可用下拉框进行目标切换。所有检测结果均在左下方表格中显示。
(2)视频检测说明
点击视频按钮,打开选择需要检测的视频,就会自动显示检测结果,再次点击可以关闭视频。
点击保存按钮,会对视频检测结果进行保存,存储路径为:save_data目录下。
(3)摄像头检测说明
点击打开摄像头按钮,可以打开摄像头,可以实时进行检测,再次点击,可关闭摄像头。
(4)保存图片与视频检测说明
点击保存按钮后,会将当前选择的图片【含批量图片】或者视频的检测结果进行保存,对于图片图片检测还会保存检测结果为csv文件,方便进行查看与后续使用。检测的图片与视频结果会存储在save_data目录下。
【注:暂不支持视频文件的检测结果保存为csv文件格式。】
保存的检测结果文件如下:
图片文件保存的csv文件内容如下,包括图片路径、目标在图片中的编号、目标类别、置信度、目标坐标位置。
注:其中坐标位置是代表检测框的左上角与右下角两个点的x、y坐标。
二、模型的训练、评估与推理
1.YOLO26介绍
本项目采用的是最新的YOLO26模型。YOLO26 是 Ultralytics 2026 年 1 月推出的新一代计算机视觉模型,主打边缘优先、高效部署。它采用端到端免 NMS 架构,移除 DFL 模块,CPU 推理速度较前代提升 43%;搭配 MuSGD 优化器与 ProgLoss+STAL 损失策略,强化小目标检测能力,支持检测、分割、姿势估计等多任务,可无缝适配树莓派、嵌入式设备等终端,广泛应用于智慧农业、安防监控等领域。
YOLO各版本性能对比:

YOLO26创新点
YOLO26的性能飞跃源于四大核心技术创新,从模型架构到训练机制全面优化:
1. 移除DFL模块,简化预测流程
早期YOLO模型依赖分布焦点损失(DFL)提升边界框精度,但这一模块增加了部署复杂度,且存在固定回归限制。YOLO26彻底移除DFL,不仅简化了边界框预测逻辑,提升了硬件兼容性,还解决了超大目标检测的可靠性问题,让模型在边缘设备上的导出与运行更顺畅。
2. 端到端无NMS推理,降低 latency
传统目标检测需通过非极大值抑制(NMS)进行后处理,过滤重叠预测框——这一步骤会增加延迟、提升部署难度。YOLO26采用原生端到端架构,直接输出最终预测结果,内部自动处理重复预测,彻底省去NMS环节,大幅降低推理延迟与集成风险,完美适配实时边缘场景。
3. ProgLoss+STAL,提升检测精度
- 渐进式损失平衡(ProgLoss):让模型训练过程更稳定,收敛更平滑,减少训练波动
- 小目标感知标签分配(STAL):针对小目标、低可见度目标优化学习机制,解决边缘场景中“难检测”问题
两项技术结合,让YOLO26在复杂场景中仍能保持高可靠检测,尤其适用于物联网、机器人、航拍等小目标密集场景。
4. MuSGD优化器,强化训练稳定性
YOLO26采用全新混合优化器MuSGD,融合传统随机梯度下降(SGD)的强泛化能力与大语言模型(LLM)训练中的先进优化思路。该优化器灵感源自Moonshot AI的Kimi K2,能让模型更快达到高性能水平,同时降低训练不稳定性,尤其在大型复杂数据集训练中表现突出。
数据集准备与训练
本文主要基于YOLO26n模型进行模型训练,训练完成后对模型在验证集上的表现进行全面的性能评估及对比分析。总体流程包括:数据集准备、模型训练、模型评估。
通过网络上搜集关于实际场景中无人机视角路面病害的相关图片,并使用Labelimg标注工具对每张图片进行标注,分4个检测类别:['龟裂','纵向裂缝','坑洞','横向裂缝']。
该数据集一共包含6341张图片,其中训练集包含5853张图片,验证集包含488张图片。
部分图像及标注如下图所示:
数据集各类别数目分布情况如下:
2.模型训练
准备好数据集后,将图片数据以如下格式放置在项目目录中。在项目目录中新建datasets目录,同时将检测的图片分为训练集与验证集放入Data目录下。
同时我们需要新建一个data.yaml文件,用于存储训练数据的路径及模型需要进行检测的类别。在进行模型训练时,会读取该文件的信息,用于进行模型的训练与验证。data.yaml的具体内容如下:
train: E:\CVProgram\00datasets\Detection\datasets/train/images val: E:\CVProgram\00datasets\Detection\datasets/valid/images nc:4 names:['Alligator crack','Longitudinal crack','Pothole','Transverse crack']注:train与val后面表示需要训练图片的路径,建议直接写自己文件的绝对路径。
数据准备完成后,通过调用train.py文件进行模型训练,epochs参数用于调整训练的轮数,batch参数用于调整训练的批次大小【根据内存大小调整,最小为1】,optimizer设定的优化器为SGD,训练代码如下:
#coding:utf-8from ultralytics import YOLO import matplotlib matplotlib.use('TkAgg')# 模型配置文件 model_yaml_path ="ultralytics/cfg/models/26/yolo26.yaml"#数据集配置文件 data_yaml_path =r'PuddleSeg/data/data/data.yaml'#预训练模型 pre_model_name ='yolo26n.pt'if __name__ =='__main__':#加载预训练模型 model = YOLO(model_yaml_path).load(pre_model_name)#训练模型 results = model.train(data=data_yaml_path, epochs=150, batch=32, name='train_26')模型常用训练超参数参数说明:YOLO11 模型的训练设置包括训练过程中使用的各种超参数和配置。这些设置会影响模型的性能、速度和准确性。关键的训练设置包括批量大小、学习率、动量和权重衰减。此外,优化器、损失函数和训练数据集组成的选择也会影响训练过程。对这些设置进行仔细的调整和实验对于优化性能至关重要。
以下是一些常用的模型训练参数和说明:

3. 训练结果评估
在深度学习中,我们通常用损失函数下降的曲线来观察模型训练的情况。YOLOv11在训练时主要包含三个方面的损失:定位损失(box_loss)、分类损失(cls_loss)和动态特征损失(dfl_loss),在训练结束后,可以在runs/目录下找到训练过程及结果文件,如下所示:
各损失函数作用说明:定位损失box_loss:预测框与标定框之间的误差(GIoU),越小定位得越准;分类损失cls_loss:计算锚框与对应的标定分类是否正确,越小分类得越准;动态特征损失(dfl_loss):DFLLoss是一种用于回归预测框与目标框之间距离的损失函数。在计算损失时,目标框需要缩放到特征图尺度,即除以相应的stride,并与预测的边界框计算Ciou Loss,同时与预测的anchors中心点到各边的距离计算回归DFLLoss。
本文训练结果如下:
我们通常用PR曲线来体现精确率和召回率的关系,本文训练结果的PR曲线如下。mAP表示Precision和Recall作为两轴作图后围成的面积,m表示平均,@后面的数表示判定iou为正负样本的阈值。[email protected]:表示阈值大于0.5的平均mAP,可以看到本文模型目标检测的[email protected]值为0.884,结果还是不错的。
4. 使用模型进行推理
模型训练完成后,我们可以得到一个最佳的训练结果模型best.pt文件,在runs/train/weights目录下。我们可以使用该文件进行后续的推理检测。
图片检测代码如下:
#coding:utf-8from ultralytics import YOLO import cv2 # 所需加载的模型目录 path ='models/best.pt'# 需要检测的图片地址 img_path ="TestFiles/lr_00009_bottom_left_jpg.rf.75d22466d2bc348f1f72b7dba5883037.jpg"# 加载预训练模型 model = YOLO(path, task='detect')# 检测图片 results = model(img_path)print(results) res = results[0].plot()# res = cv2.resize(res,dsize=None,fx=0.5,fy=0.5,interpolation=cv2.INTER_LINEAR) cv2.imshow("Detection Res", res) cv2.waitKey(0)执行上述代码后,会将执行的结果直接标注在图片上,结果如下:
更多检测结果示例如下:
四、可视化系统制作
基于上述训练出的目标检测模型,为了给此检测系统提供一个用户友好的操作平台,使用户能够便捷、高效地进行检测任务。博主基于Pyqt5开发了一个可视化的系统界面,通过图形用户界面(GUI),用户可以轻松地在图片、视频和摄像头实时检测之间切换,无需掌握复杂的编程技能即可操作系统。【系统详细展示见第一部分内容】
Pyqt5详细介绍
关于Pyqt5的详细介绍可以参考之前的博客文章:《Python中的Pyqt5详细介绍:基本机构、部件、布局管理、信号与槽、跨平台》,地址:
https://a-xu-ai.blog.ZEEKLOG.net/article/details/143273797
系统制作
博主基于Pyqt5框架开发了此款无人机视角路面病害检测识别系统,即文中第一部分的演示内容,能够很好的支持图片、视频及摄像头进行检测,同时支持检测结果的保存。
通过图形用户界面(GUI),用户可以轻松地在图片、视频和摄像头实时检测之间切换,无需掌握复杂的编程技能即可操作系统。这不仅提升了系统的可用性和用户体验,还使得检测过程更加直观透明,便于结果的实时观察和分析。此外,GUI还可以集成其他功能,如检测结果的保存与导出、检测参数的调整,从而为用户提供一个全面、综合的检测工作环境,促进智能检测技术的广泛应用。
关于该系统涉及到的完整源码、UI界面代码、数据集、训练代码、训练好的模型、测试图片视频等相关文件,均已打包上传,感兴趣的小伙伴可以通过下载链接自行获取。
【获取方式】
关注末尾名片GZH【阿旭算法与机器学习】,号内发送【源码】获取下载方式
本文涉及到的完整全部程序文件:包括python源码、数据集、训练好的结果文件、训练代码、UI源码、测试图片视频等(见下图),获取方式见文末:
注意:该代码基于Python3.9开发,运行界面的主程序为MainProgram.py,其他测试脚本说明见上图。为确保程序顺利运行,请按照程序运行说明文档txt配置软件运行所需环境。