无人机 RGB+热红外融合检测建筑裂缝与渗漏,34 层高楼约 2 小时

无人机 RGB+热红外融合检测建筑裂缝与渗漏,34 层高楼约 2 小时

导读

住宅建筑的外立面检测传统上依赖人工——爬脚手架、挂绳索、拿检测仪逐面墙检查。一栋 34 层高楼,人工检测需要 2-3 天,覆盖率只有 40-60%,而且肉眼看不到墙体内部的渗漏。

深圳大学团队提出了一套无人机 RGB+热红外双模态检测方案:用 DJI Mavic 3 Thermal 无人机同时拍摄可见光和热红外图像,可见光用于检测裂缝,热红外用于检测渗漏(水分蒸发导致的温度异常)。在深圳三个住宅小区的实测中,裂缝检测 mIoU 达到 87.86%,渗漏检测 mIoU 达到 79.05%。一栋 34 层高楼的完整外立面检测约 2 小时完成,覆盖率  ≥95% 。


论文信息

  • 标题:UAV and Deep Learning for Automated Detection and Visualization of Façade Defects in Existing Residential Buildings
  • 作者:Yue Fan, Jinghua Mai, Fei Xue(通讯), Stephen Siu Yu Lau, San Jiang, Yiqi Tao(通讯), Xiaoxing Zhang, Wing Chi Tsang
  • 机构:深圳大学(亚热带建筑与城市科学国家重点实验室、广东省城市信息学重点实验室);香港大学建筑学院;香港都会大学;深圳物策地理信息技术有限公司

一、为什么需要两种模态?

建筑外立面有两类主要缺陷,单一模态各有盲区:

缺陷类型

可见光(RGB)

热红外

裂缝

✓ 几何特征清晰

✗ 空间分辨率不足(640×512)

渗漏

✗ 墙体内部水分肉眼不可见

✓ 水分蒸发造成温度异常

  • 可见光能看到裂缝的几何形状(宽度、走向、分支),但看不到墙体内部的渗漏——水分可能已经渗入保温层但表面无明显痕迹
  • 热红外能检测到渗漏区域的温度异常(蒸发冷却效应),但空间分辨率仅 640×512 像素,无法分辨细小裂缝

两种模态互补:RGB 负责裂缝,热红外负责渗漏。

图片

图片

图片来源于原论文

二、三阶段检测流水线

图片

图片来源于原论文

阶段一:墙体提取

用 SegFormer从无人机拍摄的图像中提取建筑墙体区域,排除天空、地面、植被等背景干扰。在 WHU 墙体数据集(900 张标注图像)上微调。

阶段二:裂缝检测(RGB)

对提取的墙体区域,用 K-Net + UPerNet做语义分割检测裂缝。采用滑动窗口策略——将高分辨率外立面图像切割为与训练分辨率匹配的小块,逐块检测后拼接。

训练数据:1,892 张公开裂缝数据集图像。

阶段三:渗漏检测(热红外)

同样用 K-Net + UPerNet对热红外图像做语义分割检测温度异常区域。标注数据经过可见光图像中的渗水痕迹/泛碱现象交叉验证。

训练数据:340 张自建热红外标注图像。

双模态配准与 3D 可视化

可见光和热红外图像通过单应性矩阵(手动选择 4 个以上匹配点)配准到统一坐标系。

论文的另一个重要环节是将检测结果映射到 3D 建筑模型上。整个数据采集分两步:第一步是粗略倾斜摄影(30m 高度拍摄,用于 SfM 三维重建获取建筑外轮廓和几何信息),第二步才是精细近距拍摄(5-25m,用于缺陷检测)。粗略阶段重建的 3D 模型作为载体,精细阶段检测到的缺陷通过坐标转换(WGS84 → UTM → ENU)映射到模型上,最终在 Grasshopper/Rhino 中实现参数化可视化——每处缺陷都有精确的三维坐标和面积。

三、硬件与飞行方案

无人机平台(规格来自 DJI 官方)

参数

规格

型号

DJI Mavic 3 Thermal(M3T)

广角相机

1/2" CMOS, 48MP, 24mm 等效焦距

长焦相机

1/2" CMOS, 12MP, 162mm 等效, 56× 混合变焦

热红外相机

非制冷 VOx 微测辐射热计, 640×512, NETD ≤50mK

续航

45 分钟

重量

920g

飞行参数建议

建筑类型

高度

拍摄距离

单栋耗时

低层(≤7 层)

~21m

5-10m

~45 分钟

中层(8-18 层)

15-20m

高层(≥19 层)

~100m

20-25m

~1.2-1.6 小时

关键约束:拍摄距离超过 30m后,裂缝检测和低温差渗漏检测性能明显下降。

四、实验结果:深圳三个住宅小区实测

训练配置

参数

规格

GPU

NVIDIA RTX 4090 (24GB)

训练迭代

墙体提取 40,000 / 裂缝 36,000 / 渗漏 9,500

学习率

0.0001, Poly 衰减

检测精度

任务

整体准确率

mIoU

mPrecision

mRecall

墙体提取

86.11%

64.04%

78.9%

76.33%

裂缝检测98.03%87.86%94.21%92.31%
渗漏检测98.41%79.05%87.54%86.44%

与传统方法对比

维度

传统人工检测

无人机 + 深度学习

单栋高楼耗时

2-3 天

~2 小时

覆盖率

40-60%

≥95%

裂缝宽度精度

±0.1mm

±1cm

人工参与度

90%

20%

无人机方案在效率、覆盖率和人工参与度上大幅领先,但裂缝宽度测量精度(±1cm)远低于传统裂缝计(±0.1mm)——适合大面积筛查,不替代精密测量。

实测案例

在深圳三个住宅小区部署:

小区

楼层

拍摄距离

图像对数

OCT 社区

7 层

5m

1,034

深南花园

34 层

22m

1,400

汇芳花园

33 层

25m

1,811

在深南花园识别出 4 处渗漏缺陷,面积分别为 0.16、0.25、0.47、0.92 m²,并在 3D 模型中定位了精确坐标。

图片

图片来源于原论文

五、总结与思考

这篇论文展示了一套完整的无人机双模态建筑外立面检测方案,从飞行规划到缺陷检测到 3D 可视化:

  • 双模态互补:RGB 检测裂缝(mIoU 87.86%),热红外检测渗漏(mIoU 79.05%)
  • 效率提升:单栋高楼从 2-3 天缩短到约 2 小时,覆盖率从 40-60% 提升到 ≥95%
  • 定位为筛查工具:论文明确将方案定位为"第一阶段筛查",识别重点区域后再做精密检测

值得注意的几点:

  1. 只覆盖两类缺陷:裂缝和渗漏。建筑外立面还有脱落、空鼓、保温层损坏等缺陷类型未涉及
  2. 热红外标注数据量有限:仅 340 张标注图像训练渗漏检测模型,泛化到更多建筑类型和场景需要更多数据验证
  3. 环境因素敏感:热红外检测受立面朝向、材质、天气影响大。论文实测在深圳(亚热带气候),在北方寒冷气候下的热对比度特性可能不同
  4. 双模态配准是手动的:需要人工选择 4 个以上匹配点做单应性配准,这限制了全自动化部署
  5. 精度 vs 效率的定位清晰:论文没有声称替代传统精密检测,而是定位为大面积筛查工具——这个定位务实且合理

Read more

无人机电力设备智能巡检检测数据集 - 缺陷检测与分类 电力巡检设备状态检测数据集 铁塔顶部 - 电缆头部异物 - 爬电距离装置头部 - 开关头部 - 陶瓷绝缘子污秽 - 导线端头部

无人机电力设备智能巡检检测数据集 - 缺陷检测与分类 电力巡检设备状态检测数据集 铁塔顶部 - 电缆头部异物 - 爬电距离装置头部 - 开关头部 - 陶瓷绝缘子污秽 - 导线端头部

无人机电力巡检设备状态检测数据集,6056张,yolo,voc,coco标注方式、 图像尺寸:800*800 类别数量:49类 训练集图像数量:5292; 验证集图像数量:560; 测试集图像数量:204 类别名称: 每一类图像数 ,每一类标注数 csat_tt - 铁塔顶部:244, 254 ddan_tt_vatla - 电缆头部异物:173, 175 krang_tt - 爬电距离装置头部:142, 216 kdo_tt - 开关头部:44, 60 cdien_gom_ban - 陶瓷绝缘子污秽:58,

FASTLIVO2算法解析与实战(一):SLAM领域的新标杆,如何让机器人“看得更清、跑得更稳”

FASTLIVO2算法解析与实战(一):SLAM领域的新标杆,如何让机器人“看得更清、跑得更稳”

FASTLIVO2系统概述 1. 背景介绍 1.1 传感器特性 FASTLIVO2 系统融合了三种互补的传感器:激光雷达(LiDAR)、相机(Camera)和惯性测量单元(IMU)。它们在感知方式、输出数据和环境适应性上各具特点,通过融合实现优势互补。 特性激光雷达(LiDAR)相机(Camera)IMU工作方式主动发射激光,通过反射测量距离和方位被动接收环境光,捕捉 2D 图像信息主动测量自身运动感知内容环境几何结构(深度、形状、表面)环境纹理与颜色(语义、细节、动态物体)自身运动状态(姿态、速度、加速度)数据输出3D 点云(精确深度)2D 像素矩阵(RGB 或灰度)6 自由度运动参数优势- 直接深度测量,精度高- 不受光照影响- 在结构化环境中鲁棒-

Unitree Go2机器人ROS2仿真终极指南:从零构建完整四足机器人仿真方案

Unitree Go2机器人ROS2仿真终极指南:从零构建完整四足机器人仿真方案 【免费下载链接】go2_ros2_sdkUnofficial ROS2 SDK support for Unitree GO2 AIR/PRO/EDU 项目地址: https://gitcode.com/gh_mirrors/go/go2_ros2_sdk 在机器人技术快速发展的今天,仿真环境已成为算法验证和系统测试不可或缺的环节。本文将为开发者提供完整的Unitree Go2四足机器人在ROS2框架下的Gazebo仿真集成方案,涵盖从基础部署到高级导航功能的完整实现路径。无论是进行步态算法研究、自主导航开发,还是多机器人协同测试,本指南都将为您提供可操作的技术方案。 两种技术路线:轻量级快速部署 vs 全功能定制开发 💡 轻量级快速部署方案 基于官方SDK的快速集成路径,适合需要快速验证基础功能的开发者: 核心优势: * 5分钟完成环境部署 * 开箱即用的基础运动控制 * 完善的传感器数据流 * 多机器人协同支持 技术实现: # 核心启动文件:go2_

PX4无人机|MID360使用FAST_LIO,实现自主飞行及定点——PX4无人机配置流程(六)

PX4无人机|MID360使用FAST_LIO,实现自主飞行及定点——PX4无人机配置流程(六)

PX4固件版本为1.15.4 qgc地面站版本为4.4.5 飞控,使用微空科技MicoAir743V2 机载电脑:12代i5,ubuntu20.04 安装位置:mid360的接口对应飞机的后方 推荐阅读px4+vio实现无人机室内定位_px4+室内视觉定位-ZEEKLOG博客 和飞控连接机载电脑相关,有用 代码参考: PX4|基于FAST-LIO mid360的无人机室内自主定位及定点悬停_fastlio mid360-ZEEKLOG博客 使用视觉或动作捕捉系统进行位置估计 | PX4 指南(主) --- Using Vision or Motion Capture Systems for Position Estimation | PX4 Guide (main) 一.px4飞控设置 建议看官方文档:Using Vision or Motion