摘要
随着工业制造向智能化、高精度方向快速发展,轴承作为关键基础零部件,其表面质量直接影响整机设备的运行可靠性与寿命。传统的人工目视检测方法效率低下、主观性强且易疲劳,难以满足现代化生产线的在线检测需求。为此,本研究设计并实现了一个集成了先进深度学习算法与现代化 Web 技术的智能化轴承缺陷检测系统。
本系统以 SpringBoot 后端框架与前后端分离架构构建了稳定、可扩展的 Web 交互平台。核心检测模块创新性地集成了 YOLOv8、YOLOv10、YOLOv11 及 YOLOv12 四种前沿的目标检测模型,允许用户根据实际场景在精度与速度之间灵活切换,实现了对轴承表面'凹槽、凹线、擦伤、划痕'四类典型缺陷的高效、精准识别。系统不仅支持图片、视频及摄像头实时流的多种检测模式,并将所有检测记录与用户操作数据持久化存储于 MySQL 数据库中,确保了数据的可追溯性。特别地,系统引入了 DeepSeek 大型语言模型的智能分析功能,能够对检测结果进行语义化解读与成因分析,提升了系统的决策支持能力。
此外,系统构建了完善的用户管理体系,包含安全的登录注册、管理员后台、个人中心以及多维度的数据可视化面板,实现了从检测任务执行、记录管理到系统运维的全流程覆盖。经测试,系统在包含 1085 张图像(训练集 759 张,验证集 326 张)的数据集上表现优异,具备良好的鲁棒性与实用性,为工业轴承缺陷的自动化检测提供了一套完整的软件解决方案。
一、引言
1.1 研究背景与意义
轴承是旋转机械中不可或缺的'关节',其健康状态是设备安全稳定运行的基石。在制造与使用过程中,轴承表面因加工误差、装配不当或疲劳磨损,极易产生凹槽、凹线、擦伤、划痕等缺陷。这些微小的缺陷在高速、重载工况下会迅速扩展,引发振动加剧、噪音增大,最终导致设备突发性故障,造成巨大的经济损失甚至安全事故。因此,在出厂前与定期维护中对轴承进行严格的质量检测至关重要。
传统的检测方法主要依赖经验丰富的工人使用放大镜或显微镜进行目视检查,这种方式存在劳动强度大、检测标准不一、易漏检误检、无法实现连续作业等固有弊端。随着计算机视觉与人工智能技术的突破,基于深度学习的自动光学检测技术已成为工业质检领域的研究热点。其中,以 YOLO 系列为代表的单阶段目标检测算法,因其卓越的实时性与良好的精度,在工业缺陷检测中展现出巨大潜力。与此同时,现代软件工程推崇的模块化、可维护架构,使得将强大的 AI 模型封装为易用的 Web 服务成为可能,让非专业用户也能便捷地使用复杂的检测功能。
1.2 国内外研究现状
近年来,国内外学者将多种深度学习模型应用于表面缺陷检测。早期工作多采用基于卷积神经网络的两阶段检测器(如 Faster R-CNN)或图像分类模型,虽精度较高,但速度难以满足实时要求。YOLO 系列算法的出现,以其'You Only Look Once'的设计哲学,实现了速度与精度的良好平衡。从 YOLOv5 到最新的 YOLOv12,每一代都在网络结构、损失函数、训练策略等方面进行优化,持续提升模型性能。
然而,现有研究大多聚焦于单一模型算法的改进或特定场景的应用,较少有工作系统性地对比和集成多个最新 YOLO 版本,并为用户提供灵活选择的平台。此外,大多数缺陷检测系统仅停留在'识别 - 定位'阶段,缺乏对检测结果的深度分析与知识挖掘,未能充分发挥 AI 的潜能。在系统架构上,许多方案仍采用传统桌面应用或简单的脚本形式,在可访问性、数据管理和多用户协作方面存在局限。
1.3 本文主要工作与贡献
针对上述研究空白与实际需求,本文旨在设计并开发一个功能完备、技术先进的智能化轴承缺陷检测系统。本系统的主要工作与创新贡献如下:
- 多模型集成与可切换检测框架:率先在同一系统中集成 YOLOv8、YOLOv10、YOLOv11 和 YOLOv12 四个主流且先进的检测模型。用户可根据对检测速度、精度的不同要求,在 Web 界面上一键切换模型,实现了检测策略的灵活配置,为模型性能的实战对比提供了便利平台。
- DeepSeek 赋能的可解释性智能分析:超越传统的视觉检测,创新性地集成 DeepSeek 大型语言模型。在完成缺陷分类后,系统可调用 AI 分析接口,对缺陷的形态、可能的成因、潜在风险及处理建议生成一段连贯的文本描述,极大提升了系统的智能化水平和辅助决策价值。
- 企业级 Web 应用架构设计:采用 SpringBoot 构建高性能后端服务,结合前后端分离架构与现代化前端技术,开发了友好、直观的 Web 交互界面。系统具备完整的用户认证与权限管理模块,支持图片、视频、实时摄像头三种检测模式,所有操作记录均保存至 MySQL 数据库,实现了检测流程的规范化与数据管理的系统化。
- 全面的数据管理与可视化:设计并实现了图片、视频、摄像头识别记录的管理功能,以及用户管理、个人中心等模块。通过图表、仪表盘等形式对检测统计、用户行为等数据进行可视化呈现,帮助管理员宏观掌握系统运行状况与缺陷分布趋势。
- 构建专用轴承缺陷数据集:针对四类典型轴承缺陷(aocao,aoxian,cashang,huahen),收集并标注了包含 1085 张高质量图像的数据集(训练集 759 张,验证集 326 张),为模型的训练与评估提供了可靠的数据基础。
二、系统核心特性概述
功能模块
- 用户登录注册:支持密码检测,保存到 MySQL 数据库。
- 支持四种 YOLO 模型切换,YOLOv8、YOLOv10、YOLOv11、YOLOv12。
- 信息可视化,数据可视化。
- 图片检测支持 AI 分析功能,deepseek。
- 支持图像检测、视频检测和摄像头实时检测,检测结果保存到 MySQL 数据库。
- 图片识别记录管理、视频识别记录管理和摄像头识别记录管理。
- 用户管理模块,管理员可以对用户进行增删改查。
- 个人中心,可以修改自己的信息,密码姓名头像等等。
登录注册模块


可视化模块


图像检测模块
- YOLO 模型集成 (v8/v10/v11/v12)
- DeepSeek 多模态分析
- 支持格式:JPG/PNG/MP4/RTSP


视频检测模块

实时检测模块

图片识别记录管理


视频识别记录管理


摄像头识别记录管理

用户管理模块



数据管理模块(MySQL 表设计)
users- 用户信息表

imgrecords- 图片检测记录表

videorecords- 视频检测记录表

camerarecords- 摄像头检测记录表

模型训练结果
#coding:utf-8 #根据实际情况更换模型 # yolon.yaml (nano):轻量化模型,适合嵌入式设备,速度快但精度略低。
# yolos.yaml (small):小模型,适合实时任务。
# yolom.yaml (medium):中等大小模型,兼顾速度和精度。
# yolob.yaml (base):基本版模型,适合大部分应用场景。
# yolol.yaml (large):大型模型,适合对精度要求高的任务。
from ultralytics import YOLO
model_path = 'pt/yolo12s.pt'
data_path = 'data.yaml'
if __name__ == '__main__':
model = YOLO(model_path)
results = model.train(data=data_path, epochs=500, batch=64, device='0', workers=0, project='runs', name='exp', )










YOLO 概述

YOLOv8
YOLOv8 由 Ultralytics 于 2023 年 1 月 10 日发布,在准确性和速度方面提供了尖端性能。基于先前 YOLO 版本的进步,YOLOv8 引入了新功能和优化,使其成为各种应用中目标检测任务的理想选择。

YOLOv8 的主要特性
- 高级骨干和颈部架构: YOLOv8 采用最先进的骨干和颈部架构,从而改进了特征提取和目标检测性能。
- 无锚点分离式 Ultralytics Head: YOLOv8 采用无锚点分离式 Ultralytics head,与基于锚点的方法相比,这有助于提高准确性并提高检测效率。
- 优化的准确性 - 速度权衡: YOLOv8 专注于在准确性和速度之间保持最佳平衡,适用于各种应用领域中的实时对象检测任务。
- 丰富的预训练模型: YOLOv8 提供了一系列预训练模型,以满足各种任务和性能要求,使您更容易为特定用例找到合适的模型。
YOLOv10
YOLOv10 由清华大学研究人员基于 Ultralytics Python 构建,引入了一种新的实时目标检测方法,解决了先前 YOLO 版本中存在的后处理和模型架构缺陷。通过消除非极大值抑制 (NMS) 并优化各种模型组件,YOLOv10 以显著降低的计算开销实现了最先进的性能。大量实验表明,它在多个模型尺度上都具有卓越的精度 - 延迟权衡。

概述
实时目标检测旨在以低延迟准确预测图像中的对象类别和位置。YOLO 系列因其在性能和效率之间的平衡而一直处于这项研究的前沿。然而,对 NMS 的依赖和架构效率低下阻碍了最佳性能。YOLOv10 通过引入用于无 NMS 训练的一致双重分配和整体效率 - 准确性驱动的模型设计策略来解决这些问题。
架构
YOLOv10 的架构建立在之前 YOLO 模型优势的基础上,同时引入了几项关键创新。该模型架构由以下组件组成:
- 骨干网络:负责特征提取,YOLOv10 中的骨干网络使用增强版的 CSPNet (Cross Stage Partial Network),以改善梯度流并减少计算冗余。
- Neck:Neck 的设计目的是聚合来自不同尺度的特征,并将它们传递到 Head。它包括 PAN(路径聚合网络)层,用于有效的多尺度特征融合。
- One-to-Many Head:在训练期间为每个对象生成多个预测,以提供丰富的监督信号并提高学习准确性。
- 一对一头部:在推理时为每个对象生成一个最佳预测,以消除对 NMS 的需求,从而降低延迟并提高效率。
主要功能
- 免 NMS 训练:利用一致的双重分配来消除对 NMS 的需求,从而降低推理延迟。
- 整体模型设计:从效率和准确性的角度对各种组件进行全面优化,包括轻量级分类 Head、空间通道解耦下采样和秩引导块设计。
- 增强的模型功能: 结合了大内核卷积和部分自注意力模块,以提高性能,而无需显着的计算成本。
YOLOv11
YOLO11 是 Ultralytics YOLO 系列实时目标检测器的最新迭代版本,它以前沿的精度、速度和效率重新定义了可能性。YOLO11 在之前 YOLO 版本的显著进步基础上,在架构和训练方法上进行了重大改进,使其成为各种计算机视觉任务的多功能选择。

主要功能
- 增强的特征提取: YOLO11 采用改进的 backbone 和 neck 架构,从而增强了特征提取能力,以实现更精确的目标检测和复杂的任务性能。
- 优化效率和速度: YOLO11 引入了改进的架构设计和优化的训练流程,从而提供更快的处理速度,并在精度和性能之间保持最佳平衡。
- 更高精度,更少参数: 随着模型设计的进步,YOLO11m 在 COCO 数据集上实现了更高的平均精度均值 (mAP),同时比 YOLOv8m 少用 22% 的参数,在不牺牲精度的情况下提高了计算效率。
- 跨环境的适应性: YOLO11 可以无缝部署在各种环境中,包括边缘设备、云平台和支持 NVIDIA GPU 的系统,从而确保最大的灵活性。
- 广泛支持的任务范围: 无论是目标检测、实例分割、图像分类、姿势估计还是旋转框检测 (OBB),YOLO11 都旨在满足各种计算机视觉挑战。
Ultralytics YOLO11 在其前代产品的基础上进行了多项重大改进。主要改进包括:
- 增强的特征提取: YOLO11 采用了改进的骨干网络和颈部架构,增强了特征提取能力,从而实现更精确的目标检测。
- 优化的效率和速度: 改进的架构设计和优化的训练流程提供了更快的处理速度,同时保持了准确性和性能之间的平衡。
- 更高精度,更少参数: YOLO11m 在 COCO 数据集上实现了更高的平均精度均值 (mAP),同时比 YOLOv8m 少用 22% 的参数,在不牺牲精度的情况下提高了计算效率。
- 跨环境的适应性: YOLO11 可以部署在各种环境中,包括边缘设备、云平台和支持 NVIDIA GPU 的系统。
- 广泛支持的任务范围: YOLO11 支持各种计算机视觉任务,例如目标检测、实例分割、图像分类、姿势估计和旋转框检测 (OBB)。
YOLOv12
YOLO12 引入了一种以注意力为中心的架构,它不同于之前 YOLO 模型中使用的传统基于 CNN 的方法,但仍保持了许多应用所需的实时推理速度。该模型通过在注意力机制和整体网络架构方面的新颖方法创新,实现了最先进的目标检测精度,同时保持了实时性能。尽管有这些优势,YOLO12 仍然是一个社区驱动的版本,由于其沉重的注意力模块,可能表现出训练不稳定、内存消耗增加和 CPU 吞吐量较慢的问题,因此 Ultralytics 仍然建议将 YOLO11 用于大多数生产工作负载。
主要功能
- 区域注意力机制: 一种新的自注意力方法,可以有效地处理大型感受野。它将特征图分成 l 个大小相等的区域(默认为 4 个),水平或垂直,避免复杂的运算并保持较大的有效感受野。与标准自注意力相比,这大大降低了计算成本。
- 残差高效层聚合网络(R-ELAN):一种基于 ELAN 的改进的特征聚合模块,旨在解决优化挑战,尤其是在更大规模的以注意力为中心的模型中。R-ELAN 引入:
- 具有缩放的块级残差连接(类似于层缩放)。
- 一种重新设计的特征聚合方法,创建了一个类似瓶颈的结构。
- 优化的注意力机制架构:YOLO12 精简了标准注意力机制,以提高效率并与 YOLO 框架兼容。这包括:
- 使用 FlashAttention 来最大限度地减少内存访问开销。
- 移除位置编码,以获得更简洁、更快速的模型。
- 调整 MLP 比率(从典型的 4 调整到 1.2 或 2),以更好地平衡注意力和前馈层之间的计算。
- 减少堆叠块的深度以改进优化。
- 利用卷积运算(在适当的情况下)以提高其计算效率。
- 在注意力机制中添加一个 7x7 可分离卷积('位置感知器'),以隐式地编码位置信息。
- 全面的任务支持: YOLO12 支持一系列核心计算机视觉任务:目标检测、实例分割、图像分类、姿势估计和旋转框检测 (OBB)。
- 增强的效率: 与许多先前的模型相比,以更少的参数实现了更高的准确率,从而证明了速度和准确率之间更好的平衡。
- 灵活部署: 专为跨各种平台部署而设计,从边缘设备到云基础设施。
主要改进
- 增强的 特征提取:
- 区域注意力: 有效处理大型感受野,降低计算成本。
- 优化平衡: 改进了注意力和前馈网络计算之间的平衡。
- R-ELAN:使用 R-ELAN 架构增强特征聚合。
- 优化创新:
- 残差连接:引入具有缩放的残差连接以稳定训练,尤其是在较大的模型中。
- 改进的特征集成:在 R-ELAN 中实现了一种改进的特征集成方法。
- FlashAttention: 整合 FlashAttention 以减少内存访问开销。
- 架构效率:
- 减少参数:与之前的许多模型相比,在保持或提高准确性的同时,实现了更低的参数计数。
- 简化的注意力机制:使用简化的注意力实现,避免了位置编码。
- 优化的 MLP 比率:调整 MLP 比率以更有效地分配计算资源。
前端代码展示

首页界面一小部分代码:
<template>
<div>
<el-row :gutter="15">
<el-col :xs="24" :sm="14" :md="14" :lg="16" :xl="16">
<div>
<div ref="homeLineRef"></div>
</div>
</el-col>
<el-col :xs="24" :sm="10" :md="10" :lg="8" :xl="8">
<div>
<div ref="homePieRef"></div>
</div>
</el-col>
</el-row>
<el-row :gutter="15">
<el-col :xs= = = = =>
实时检测记录
{{ formatLabel(scope.row.label) }}
{{ formatConfidence(scope.row.confidence) }}
详情
原始图像
暂无原始图像
检测信息
{{ state.selectedRecord?.username || '未知' }}
{{ formatLabel(state.selectedRecord?.label || '') }}
{{ formatConfidence(state.selectedRecord?.confidence || '') }}
{{ state.selectedRecord?.weight || '未知' }}
{{ state.selectedRecord?.conf || '未知' }}
{{ state.selectedRecord?.startTime || '未知' }}
{{ item.label }}:
{{ item.confidence }}
原始图像
暂无原始图像
缺陷标注图像
暂无缺陷标注图像
关闭
下载检测图像
</template>
后端代码展示



