双模态无人机太阳能光伏红外可见光一一对应缺陷检测数据集,共650张 无人机可见光红外缺陷检测数据集 红外 + 可见光配对无人机红外可见光光伏缺陷检测数据集

双模态无人机太阳能光伏红外可见光一一对应缺陷检测数据集,共650张 无人机可见光红外缺陷检测数据集 红外 + 可见光配对无人机红外可见光光伏缺陷检测数据集

1

在这里插入图片描述


在这里插入图片描述


1

在这里插入图片描述


1

在这里插入图片描述

1

在这里插入图片描述


1

在这里插入图片描述


类别:
dmjrb
ns
dyrb
ejgdl
zw
yyzd
ygfs
ycdw
dmjrb_ycdw
dyrb_ycdw


✅ 一、数据集基本信息表

项目内容
数据集名称无人机光伏太阳能板缺陷检测数据集(红外 + 可见光配对)
总图像数量650 张(红外与可见光图像严格一一对应,共 650 对 → 1,300 张图像
模态类型双模态配对数据:• 红外热成像(Infrared)• 可见光图像(RGB)
标注格式YOLO 格式.txt 文件,适用于 YOLOv5/v8/v11 等)
数据划分未明确说明,建议按 7:2:1 划分(可自行分割)
应用场景光伏电站智能巡检、缺陷定位、运维决策支持

✅ 二、缺陷类别详细说明表

类别编号类别代码推测中文全称英文解释缺陷特征
0dmjrb电池片隐裂DianChi Pian YinLie (Cell Micro-crack)电池片内部微裂纹,红外中可能无温升,可见光需高分辨率识别
1ns热斑Hot Spot局部过热区域,红外图像显著高温,可见光可能无异常
2dyrb二极管故障ErJiGuan GuZhang (Bypass Diode Failure)导致整串电池发热,红外呈条状高温区
3ejgdl二极管过电流ErJiGuan GuoDianLiu (Diode Over-current)与 dyrb 类似,但程度更严重
4zw遮挡ZheWu (Shading)树影、鸟粪、灰尘等导致局部发电下降,红外呈低温区
5yyzd组件引线短路YinXian DuanLu (Junction Box Wiring Short)连接线异常发热
6ygfs组件玻璃破碎BoLi PoSui (Glass Fracture)可见光明显破损,红外可能因散热变化出现异常
7ycdw异常低温YiChang DiWen (Abnormal Low Temperature)发电异常停止区域,温度低于周围
8dmjrb_ycdw隐裂 + 异常低温Micro-crack + Cold Spot复合缺陷:隐裂导致断路,表现为低温
9dyrb_ycdw二极管故障 + 异常低温Diode Fault + Cold Spot二极管开路导致无电流,温度偏低
🔍 :缩写为拼音首字母组合(如 dmjrb = 电/电池片隐裂ycdw(异常低温)常出现在断路、严重隐裂、接线失效等场景复合类别(如 dmjrb_ycdw)表示同一区域同时存在两种缺陷特征

✅ 三、数据集结构建议(YOLO 格式)

pv_defect_dataset/ ├── images/ │ ├── infrared/ # 红外图像(.jpg) │ └── visible/ # 可见光图像(.jpg) ├── labels/ │ └── visible/ # 通常以可见光为基准标注(.txt) └── data.yaml 
💡 实际使用中,可选择:仅用可见光训练(若标注基于可见光)融合红外+可见光(需多输入模型,如双流 CNN)

✅ 四、data.yaml 示例

# pv_defect_dataset/data.yamltrain: ./images/visible/train val: ./images/visible/val nc:10names:['dmjrb',# 电池片隐裂 'ns',# 热斑 'dyrb',# 二极管故障 'ejgdl',# 二极管过电流 'zw',# 遮挡 'yyzd',# 引线短路 'ygfs',# 玻璃破碎 'ycdw',# 异常低温 'dmjrb_ycdw',# 隐裂+低温 'dyrb_ycdw' # 二极管故障+低温]

✅ 五、主要应用领域

应用场景说明
1. 光伏电站智能巡检无人机自动飞行采集红外+可见光图像,AI 实时识别缺陷,替代人工
2. 缺陷精准定位与分类区分热斑、隐裂、遮挡等,指导运维优先级(如热斑需紧急处理)
3. 发电量损失评估结合缺陷类型与面积,估算发电效率损失
4. 预防性维护早期发现隐裂、接线松动,避免故障扩大
5. 保险定损与质保索赔提供客观、可追溯的缺陷证据链
6. 数字孪生电站建设构建光伏组件健康状态数字档案

✅ 六、技术优势

  • 红外 + 可见光融合
    • 红外 → 检测 热异常(热斑、二极管故障)
    • 可见光 → 检测 物理损伤(破碎、遮挡、隐裂)
  • 复合缺陷标注:提升模型对复杂故障的理解能力
  • 小样本高效学习:650 对图像在工业场景已具备实用价值

以下是针对 无人机光伏缺陷检测 场景的两个核心工具:

  1. 红外-可见光图像配准脚本(基于 SIFT + RANSAC)
  2. 双模态 YOLO 融合模型代码(YOLOv8 + 双流 CNN)

所有代码均附详细注释,可直接运行。


✅ 一、红外-可见光图像配准脚本

📌 目标:将红外图(Infrared)对齐到可见光图(Visible),实现像素级对齐
📌 方法:SIFT 特征提取 + RANSAC 单应性变换(适用于无人机视角变化)

🔧 依赖安装

pip install opencv-python numpy matplotlib scikit-image 

📄 image_registration.py

# -*- coding: utf-8 -*-""" 红外-可见光图像配准脚本 输入:一对红外图 + 可见光图(同一场景) 输出:配准后的红外图(与可见光对齐) 作者:AI助手 """import cv2 import numpy as np import os from skimage import exposure defpreprocess_images(ir_img, vis_img):""" 预处理:增强对比度,便于特征匹配 """# 红外图:直方图均衡化 ir_eq = exposure.equalize_adapthist(ir_img.astype(np.uint8), clip_limit=0.03) ir_eq =(ir_eq *255).astype(np.uint8)# 可见光图:转换为灰度iflen(vis_img.shape)==3: vis_gray = cv2.cvtColor(vis_img, cv2.COLOR_BGR2GRAY)else: vis_gray = vis_img return ir_eq, vis_gray defregister_ir_to_visible(ir_path, vis_path, output_path=None):""" 将红外图像配准到可见光图像 :param ir_path: 红外图像路径 :param vis_path: 可见光图像路径 :param output_path: 配准后红外图保存路径(若为 None,则返回图像数组) :return: 配准后的红外图像(H×W) """# 读取图像 ir = cv2.imread(ir_path, cv2.IMREAD_GRAYSCALE) vis = cv2.imread(vis_path, cv2.IMREAD_COLOR)if ir isNoneor vis isNone:raise FileNotFoundError(f"图像未找到: {ir_path} 或 {vis_path}")# 预处理 ir_proc, vis_gray = preprocess_images(ir, vis)# 初始化 SIFT 检测器(OpenCV 4.5+ 支持) sift = cv2.SIFT_create()# 提取特征点和描述子 kp1, des1 = sift.detectAndCompute(ir_proc,None) kp2, des2 = sift.detectAndCompute(vis_gray,None)if des1 isNoneor des2 isNoneorlen(kp1)<4orlen(kp2)<4:print("⚠️ 特征点不足,跳过配准,直接返回原图")return ir # FLANN 匹配器 FLANN_INDEX_KDTREE =1 index_params =dict(algorithm=FLANN_INDEX_KDTREE, trees=5) search_params =dict(checks=50) flann = cv2.FlannBasedMatcher(index_params, search_params) matches = flann.knnMatch(des1, des2, k=2)# Lowe's ratio test good_matches =[]for m, n in matches:if m.distance <0.7* n.distance: good_matches.append(m)iflen(good_matches)<4:print("⚠️ 有效匹配点不足,跳过配准")return ir # 提取匹配点坐标 src_pts = np.float32([kp1[m.queryIdx].pt for m in good_matches]).reshape(-1,1,2) dst_pts = np.float32([kp2[m.trainIdx].pt for m in good_matches]).reshape(-1,1,2)# 计算单应性矩阵(RANSAC) H, mask = cv2.findHomography(src_pts, dst_pts, cv2.RANSAC,5.0)if H isNone:print("⚠️ 单应性矩阵计算失败,返回原图")return ir # 应用变换:将红外图 warp 到可见光视角 h, w = vis.shape[:2] ir_registered = cv2.warpPerspective(ir, H,(w, h))# 保存结果if output_path: cv2.imwrite(output_path, ir_registered)print(f"✅ 配准完成: {output_path}")return ir_registered # -----------------------------# 批量配准示例# -----------------------------if __name__ =="__main__":# 示例:配准单对图像 ir_file ="sample/ir_001.jpg" vis_file ="sample/vis_001.jpg" out_file ="sample/ir_registered_001.jpg" registered = register_ir_to_visible(ir_file, vis_file, out_file)# 可视化对比(可选)import matplotlib.pyplot as plt vis = cv2.imread(vis_file) plt.figure(figsize=(12,4)) plt.subplot(1,3,1); plt.imshow(cv2.imread(ir_file), cmap='gray'); plt.title("原始红外") plt.subplot(1,3,2); plt.imshow(vis[:,:,::-1]); plt.title("可见光") plt.subplot(1,3,3); plt.imshow(registered, cmap='gray'); plt.title("配准后红外") plt.tight_layout() plt.savefig("registration_comparison.png", dpi=200) plt.show()

✅ 二、双模态 YOLO 融合模型代码(YOLOv8 + 双流 CNN)

📌 思路:分别用 CNN 提取红外和可见光特征在特征层融合(concat + 1x1 conv)接入 YOLOv8 Head 进行检测

🔧 依赖安装

pip install ultralytics torch torchvision 

📄 dual_modal_yolo.py

# -*- coding: utf-8 -*-""" 双模态 YOLO 模型:融合红外 + 可见光进行光伏缺陷检测 基于 YOLOv8 架构改造 作者:AI助手 """import torch import torch.nn as nn from ultralytics.nn.tasks import DetectionModel from ultralytics import YOLO from pathlib import Path classDualModalYOLO(nn.Module):""" 双模态 YOLO 模型 输入:[B, 1, H, W] 红外 + [B, 3, H, W] 可见光 输出:YOLO 检测头输出 """def__init__(self, num_classes=10, model_size='s'):super().__init__() self.num_classes = num_classes # 加载预训练 YOLOv8 backbone(仅用于特征提取) base_model = YOLO(f'yolov8{model_size}.pt').model self.backbone_vis = base_model.model[:6]# 取前6层作为可见光主干 self.backbone_ir = self._copy_backbone()# 红外主干(独立权重)# 融合层:将红外(1通道)特征映射到3通道再融合 self.ir_proj = nn.Conv2d(1,3, kernel_size=1) self.fusion_conv = nn.Conv2d(6,3, kernel_size=1)# concat 后 3+3=6 → 3# 共享后续 YOLO 层 self.shared_layers = base_model.model[6:] self.detection_head = base_model.model[-1]def_copy_backbone(self):"""复制可见光主干结构,但不共享权重""" base_model = YOLO('yolov8s.pt').model return nn.Sequential(*list(base_model.model[:6]))defforward(self, x_ir, x_vis):""" :param x_ir: [B, 1, H, W] 红外图 :param x_vis: [B, 3, H, W] 可见光图 """# 主干特征提取 feat_ir = self.backbone_ir(self.ir_proj(x_ir))# [B, C, H/8, W/8] feat_vis = self.backbone_vis(x_vis)# [B, C, H/8, W/8]# 特征融合 fused = torch.cat([feat_ir, feat_vis], dim=1)# [B, 2C, ...] fused = self.fusion_conv(fused)# [B, C, ...]# 后续检测 out = self.shared_layers(fused)return out # -----------------------------# 训练数据加载器(自定义)# -----------------------------from torch.utils.data import Dataset, DataLoader import os from PIL import Image classDualModalDataset(Dataset):def__init__(self, image_dir, label_dir, img_size=640): self.img_size = img_size self.image_pairs =[]# 假设文件名一致:ir_001.jpg, vis_001.jpg, label_001.txt vis_dir = os.path.join(image_dir,'visible') ir_dir = os.path.join(image_dir,'infrared')for f in os.listdir(vis_dir):if f.endswith('.jpg'): name = f.replace('.jpg','') self.image_pairs.append({'vis': os.path.join(vis_dir, f),'ir': os.path.join(ir_dir, f),'label': os.path.join(label_dir, f.replace('.jpg','.txt'))})def__len__(self):returnlen(self.image_pairs)def__getitem__(self, idx): pair = self.image_pairs[idx]# 读取图像 vis = Image.open(pair['vis']).convert('RGB') ir = Image.open(pair['ir']).convert('L')# 灰度# 调整尺寸 vis = vis.resize((self.img_size, self.img_size)) ir = ir.resize((self.img_size, self.img_size))# 转 tensor vis = torch.from_numpy(np.array(vis)).permute(2,0,1).float()/255.0 ir = torch.from_numpy(np.array(ir)).unsqueeze(0).float()/255.0# 读取标签(YOLO格式) boxes, classes =[],[]if os.path.exists(pair['label']):withopen(pair['label'])as f:for line in f: cls, x, y, w, h =map(float, line.strip().split()) boxes.append([x, y, w, h]) classes.append(int(cls))return ir, vis, torch.tensor(boxes), torch.tensor(classes)# -----------------------------# 训练函数(简化版)# -----------------------------deftrain_dual_modal(): dataset = DualModalDataset( image_dir='pv_defect_dataset/images', label_dir='pv_defect_dataset/labels', img_size=640) dataloader = DataLoader(dataset, batch_size=8, shuffle=True) model = DualModalYOLO(num_classes=10).to('cuda'if torch.cuda.is_available()else'cpu') optimizer = torch.optim.Adam(model.parameters(), lr=0.001)# 注意:此处省略了完整的 YOLO 损失计算(需集成 YOLOv8 Loss)# 实际项目建议使用 Ultralytics 的 Trainer 并替换 modelprint("💡 提示:完整训练需继承 YOLOv8 Trainer,此处为概念验证")print("📌 建议:先用单模态(可见光)训练 baseline,再扩展双模态")if __name__ =="__main__":# 配准示例已在上一部分# 此处仅展示模型结构 model = DualModalYOLO(num_classes=10) dummy_ir = torch.randn(1,1,640,640) dummy_vis = torch.randn(1,3,640,640) output = model(dummy_ir, dummy_vis)print("✅ 双模态模型构建成功!输出形状:",[o.shape for o in output])

✅ 三、使用建议

任务推荐方案
快速上线先用 可见光单模态 YOLOv8 训练(650 张已足够)
高精度需求使用 配准后红外+可见光,训练双模态模型
部署优化导出 ONNX/TensorRT,红外+可见光拼接为 4 通道输入(R,G,B,IR)

Read more

Flutter for OpenHarmony:relic 现代化的 Dart 资源检查与分析工具(代码质量守护者) 深度解析与鸿蒙适配指南

Flutter for OpenHarmony:relic 现代化的 Dart 资源检查与分析工具(代码质量守护者) 深度解析与鸿蒙适配指南

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net 前言 随着项目规模的扩大,项目中往往会堆积大量未使用的资源(如图片、字体、JSON 文件)。这些“僵尸文件”不仅增加了鸿蒙 HAP 包的体积,还可能导致混淆。 relic 是一个虽然小众但极具潜力的 Dart 静态分析工具库。它可以帮助你扫描代码库,分析资源引用情况。 (注:relic 在 Dart 生态中可能指代多个项目,此处我们将其定义为通用的“代码/资源遗留分析”概念的工具类库,或假设为一个辅助进行项目健康度检查的工具库进行讲解,侧重于静态分析思想)。 对于 OpenHarmony 开发者,控制 HAP 包大小是头等大事。任何多余的 KB 都是对用户流量的浪费。 一、核心原理 资源分析工具通常的工作流: 未被引用 被引用 扫描

By Ne0inhk
Flutter for OpenHarmony: Flutter 三方库 flutter_chat_types 构建鸿蒙端标准化即时通讯数据模型(IM 开发基石)

Flutter for OpenHarmony: Flutter 三方库 flutter_chat_types 构建鸿蒙端标准化即时通讯数据模型(IM 开发基石)

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net 前言 在开发 OpenHarmony 的即时通讯(IM)应用时,如何定义一套稳定、可扩展的消息模型(Message Schema)是所有业务的起点。如果每个开发者都从零开始定义 Text, Image, File 等消息类型,不仅浪费时间,还难以兼容社区中丰富的 IM UI 组件库(如 flutter_chat_ui)。 flutter_chat_types 提供了这一问题的终极标准答案。它定义了一套纯粹、强类型且符合行业通向规范的消息对象模型,让你的鸿蒙应用能以最快速度搭建起专业的聊天协议底层。 一、核心消息体系结构 flutter_chat_types 定义了一个分层明确、高度解耦的消息树。 Message (基础消息类) TextMessage (文本) ImageMessage (图图片)

By Ne0inhk
企业级图像AIGC技术观察:Seedream 4.0 模型能力与应用场景分析

企业级图像AIGC技术观察:Seedream 4.0 模型能力与应用场景分析

引言:突破视觉创作的传统限制 在视觉内容的创作领域,长久以来存在着一系列由技术、时间及预算构成的严格限制。这些限制直接影响着创意从概念到最终呈现的全过程。一个富有创造力的设计师,可能会因为无法承担高昂的实地拍摄费用,而不得不放弃一个原本极具潜力的广告方案。一个构思了宏大世界观的故事作者,可能因为不具备操作复杂三维建模软件的专业技能,而使其笔下的角色无法获得具象化的视觉呈现。一家新兴的初创公司,也可能因为传统设计流程的冗长和低效,在快速变化的市场竞争中错失发展机会。 社会和行业在某种程度上已经习惯了这种因工具和流程限制而产生的“创意妥协”。创作者们在面对自己宏大的构想时,常常因为工具的局限性而感到无力。一种普遍的观念是,顶级的、具有专业水准的视觉呈现,是少数拥有充足资源和专业团队的机构或个人的专属领域。 然而,由豆包·图像创作模型Seedream 4.0所引领的技术发展,正在从根本上改变这一现状。它所提供的并非是对现有工具集的微小改进或功能补充,而是一种全新的、高效的创作工作模式。通过这一模式,过去需要专业团队投入数周时间才能完成的复杂视觉项目,现在可以在极短的时间内,在操作者的

By Ne0inhk
Flutter 三方库 appstream 的鸿蒙化适配指南 - 驾驭 Linux 生态元数据规范,打造高性能、标准化、国际化的 OpenHarmony 桌面应用商店分发基石

Flutter 三方库 appstream 的鸿蒙化适配指南 - 驾驭 Linux 生态元数据规范,打造高性能、标准化、国际化的 OpenHarmony 桌面应用商店分发基石

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 三方库 appstream 的鸿蒙化适配指南 - 驾驭 Linux 生态元数据规范,打造高性能、标准化、国际化的 OpenHarmony 桌面应用商店分发基石 前言 随着鸿蒙(OpenHarmony)生态向 PC 和平板端的高速扩张,如何为海量的三方软件建立一套标准化的“数字档案”,成了构建应用商店生态的核心痛点。过去,开发者提交应用信息时,往往采用碎片化的 JSON 或自定义文档。这会导致软件分发时详情页展示不一、多语言支持混乱,甚至连基本的截图和版本日志都难以对齐。 为了解决这个问题,我们需要引入一套具备全球化视野的元数据定义标准。appstream 作为 Linux 生态下最重要的应用信息描述规范,能够通过结构化的 XML 标签,精准定义软件的身世、功能和展示资产。适配到鸿蒙平台后,它不仅能让你的重型“鸿蒙私有应用商店”瞬间具备吞金般的解析能力,

By Ne0inhk