无人机 RGB+热红外融合检测建筑裂缝与渗漏,34 层高楼约 2 小时

无人机 RGB+热红外融合检测建筑裂缝与渗漏,34 层高楼约 2 小时

导读

住宅建筑的外立面检测传统上依赖人工——爬脚手架、挂绳索、拿检测仪逐面墙检查。一栋 34 层高楼,人工检测需要 2-3 天,覆盖率只有 40-60%,而且肉眼看不到墙体内部的渗漏。

深圳大学团队提出了一套无人机 RGB+热红外双模态检测方案:用 DJI Mavic 3 Thermal 无人机同时拍摄可见光和热红外图像,可见光用于检测裂缝,热红外用于检测渗漏(水分蒸发导致的温度异常)。在深圳三个住宅小区的实测中,裂缝检测 mIoU 达到 87.86%,渗漏检测 mIoU 达到 79.05%。一栋 34 层高楼的完整外立面检测约 2 小时完成,覆盖率  ≥95% 。


论文信息

  • 标题:UAV and Deep Learning for Automated Detection and Visualization of Façade Defects in Existing Residential Buildings
  • 作者:Yue Fan, Jinghua Mai, Fei Xue(通讯), Stephen Siu Yu Lau, San Jiang, Yiqi Tao(通讯), Xiaoxing Zhang, Wing Chi Tsang
  • 机构:深圳大学(亚热带建筑与城市科学国家重点实验室、广东省城市信息学重点实验室);香港大学建筑学院;香港都会大学;深圳物策地理信息技术有限公司

一、为什么需要两种模态?

建筑外立面有两类主要缺陷,单一模态各有盲区:

缺陷类型

可见光(RGB)

热红外

裂缝

✓ 几何特征清晰

✗ 空间分辨率不足(640×512)

渗漏

✗ 墙体内部水分肉眼不可见

✓ 水分蒸发造成温度异常

  • 可见光能看到裂缝的几何形状(宽度、走向、分支),但看不到墙体内部的渗漏——水分可能已经渗入保温层但表面无明显痕迹
  • 热红外能检测到渗漏区域的温度异常(蒸发冷却效应),但空间分辨率仅 640×512 像素,无法分辨细小裂缝

两种模态互补:RGB 负责裂缝,热红外负责渗漏。

图片

图片

图片来源于原论文

二、三阶段检测流水线

图片

图片来源于原论文

阶段一:墙体提取

用 SegFormer从无人机拍摄的图像中提取建筑墙体区域,排除天空、地面、植被等背景干扰。在 WHU 墙体数据集(900 张标注图像)上微调。

阶段二:裂缝检测(RGB)

对提取的墙体区域,用 K-Net + UPerNet做语义分割检测裂缝。采用滑动窗口策略——将高分辨率外立面图像切割为与训练分辨率匹配的小块,逐块检测后拼接。

训练数据:1,892 张公开裂缝数据集图像。

阶段三:渗漏检测(热红外)

同样用 K-Net + UPerNet对热红外图像做语义分割检测温度异常区域。标注数据经过可见光图像中的渗水痕迹/泛碱现象交叉验证。

训练数据:340 张自建热红外标注图像。

双模态配准与 3D 可视化

可见光和热红外图像通过单应性矩阵(手动选择 4 个以上匹配点)配准到统一坐标系。

论文的另一个重要环节是将检测结果映射到 3D 建筑模型上。整个数据采集分两步:第一步是粗略倾斜摄影(30m 高度拍摄,用于 SfM 三维重建获取建筑外轮廓和几何信息),第二步才是精细近距拍摄(5-25m,用于缺陷检测)。粗略阶段重建的 3D 模型作为载体,精细阶段检测到的缺陷通过坐标转换(WGS84 → UTM → ENU)映射到模型上,最终在 Grasshopper/Rhino 中实现参数化可视化——每处缺陷都有精确的三维坐标和面积。

三、硬件与飞行方案

无人机平台(规格来自 DJI 官方)

参数

规格

型号

DJI Mavic 3 Thermal(M3T)

广角相机

1/2" CMOS, 48MP, 24mm 等效焦距

长焦相机

1/2" CMOS, 12MP, 162mm 等效, 56× 混合变焦

热红外相机

非制冷 VOx 微测辐射热计, 640×512, NETD ≤50mK

续航

45 分钟

重量

920g

飞行参数建议

建筑类型

高度

拍摄距离

单栋耗时

低层(≤7 层)

~21m

5-10m

~45 分钟

中层(8-18 层)

15-20m

高层(≥19 层)

~100m

20-25m

~1.2-1.6 小时

关键约束:拍摄距离超过 30m后,裂缝检测和低温差渗漏检测性能明显下降。

四、实验结果:深圳三个住宅小区实测

训练配置

参数

规格

GPU

NVIDIA RTX 4090 (24GB)

训练迭代

墙体提取 40,000 / 裂缝 36,000 / 渗漏 9,500

学习率

0.0001, Poly 衰减

检测精度

任务

整体准确率

mIoU

mPrecision

mRecall

墙体提取

86.11%

64.04%

78.9%

76.33%

裂缝检测98.03%87.86%94.21%92.31%
渗漏检测98.41%79.05%87.54%86.44%

与传统方法对比

维度

传统人工检测

无人机 + 深度学习

单栋高楼耗时

2-3 天

~2 小时

覆盖率

40-60%

≥95%

裂缝宽度精度

±0.1mm

±1cm

人工参与度

90%

20%

无人机方案在效率、覆盖率和人工参与度上大幅领先,但裂缝宽度测量精度(±1cm)远低于传统裂缝计(±0.1mm)——适合大面积筛查,不替代精密测量。

实测案例

在深圳三个住宅小区部署:

小区

楼层

拍摄距离

图像对数

OCT 社区

7 层

5m

1,034

深南花园

34 层

22m

1,400

汇芳花园

33 层

25m

1,811

在深南花园识别出 4 处渗漏缺陷,面积分别为 0.16、0.25、0.47、0.92 m²,并在 3D 模型中定位了精确坐标。

图片

图片来源于原论文

五、总结与思考

这篇论文展示了一套完整的无人机双模态建筑外立面检测方案,从飞行规划到缺陷检测到 3D 可视化:

  • 双模态互补:RGB 检测裂缝(mIoU 87.86%),热红外检测渗漏(mIoU 79.05%)
  • 效率提升:单栋高楼从 2-3 天缩短到约 2 小时,覆盖率从 40-60% 提升到 ≥95%
  • 定位为筛查工具:论文明确将方案定位为"第一阶段筛查",识别重点区域后再做精密检测

值得注意的几点:

  1. 只覆盖两类缺陷:裂缝和渗漏。建筑外立面还有脱落、空鼓、保温层损坏等缺陷类型未涉及
  2. 热红外标注数据量有限:仅 340 张标注图像训练渗漏检测模型,泛化到更多建筑类型和场景需要更多数据验证
  3. 环境因素敏感:热红外检测受立面朝向、材质、天气影响大。论文实测在深圳(亚热带气候),在北方寒冷气候下的热对比度特性可能不同
  4. 双模态配准是手动的:需要人工选择 4 个以上匹配点做单应性配准,这限制了全自动化部署
  5. 精度 vs 效率的定位清晰:论文没有声称替代传统精密检测,而是定位为大面积筛查工具——这个定位务实且合理

Read more

Flutter 组件 spry 适配鸿蒙 HarmonyOS 实战:轻量化 Web 框架,构建高性能端侧微服务与 Middleware 治理架构

Flutter 组件 spry 适配鸿蒙 HarmonyOS 实战:轻量化 Web 框架,构建高性能端侧微服务与 Middleware 治理架构

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 组件 spry 适配鸿蒙 HarmonyOS 实战:轻量化 Web 框架,构建高性能端侧微服务与 Middleware 治理架构 前言 在鸿蒙(OpenHarmony)生态迈向全场景分布式协同、涉及设备端侧 API 暴露、轻量化资源服务镜像及严苛的跨端 RPC 通信背景下,如何实现一套既能保持极低内存足迹(Footprint)、又能提供类似后端(Node.js/Koa)般丝滑开发体验且具备全异步处理能力的“端侧 Web 基座”,已成为决定应用分布式自治能力与全栈同构效率的关键。在鸿蒙设备这类强调 AOT 极致效能与背景任务严格限制的环境下,如果应用依然采用重量级的 HTTP 服务端,由于由于进程级的上下文切换开销,极易由于由于“算力溢出”导致鸿蒙应用在作为服务端响应时发生明显的电量损耗。 我们需要一种能够解耦路由逻辑、支持

2025 最好用的 AI 工具大全推荐,看这一篇就够了!【建议保存】

2025 最好用的 AI 工具大全推荐,看这一篇就够了!【建议保存】

这一年被轰炸最多的问题是什么? 那一定是——> “大佬,这个 XXX 是用啥 AI 搞的?” “求推荐!有没有能一键搞定 XXX 的神器?” 今天我来整理一篇 AI 工具合集,是时候再来一波终极安利了。 这次,我直接按 8 大分类,把目前最顶的 AI 工具扒了个底朝天: AI 聊天、AI 搜索、AI 编程、AI 绘画、AI 音乐、AI 视频、AI 智能体、AI 数字人…… 别再去翻那些过时攻略了,看完这篇,你的效率能直接起飞! 直接上干活! AI 聊天 deepseek 2025 年 DeepSeek

前端趋势:别被时代抛弃

前端趋势:别被时代抛弃 毒舌时刻 这代码写得跟博物馆似的,都是过时的技术。 各位前端同行,咱们今天聊聊前端趋势。别告诉我你还在使用过时的技术,那感觉就像在 5G 时代还在用 2G 网络——能用,但慢得要命。 为什么你需要关注前端趋势 最近看到一个项目,还在使用 React 16,不知道 React 18 的并发模式。我就想问:你是在做开发还是在做考古? 反面教材 // 反面教材:使用过时技术 // App.jsx import React, { useState, useEffect } from 'react'; function App() { const [data, setData] = useState([]); const [loading, setLoading] = useState(true)

80+提示词 震撼发布|Seedance 2.0 提示词完全指南:从新手到“AI导演“

80+提示词 震撼发布|Seedance 2.0 提示词完全指南:从新手到“AI导演“

编者按 这两天,X.com、微博、小红书被一款名叫 Seedance 2.0 的 AI 视频生成模型刷屏。从 Tom Cruise 和 Brad Pitt 的"对打",到《复仇者联盟》的重制版,再到"水獭版"《老友记》……这些一度被认为需要好莱坞团队耗时数月才能完成的视频,如今只需一句提示词就能秒生成。 作为字节跳动推出的新一代多模态视频生成工具,Seedance 2.0 正式宣告:AI 视频创作时代已至,人人都可能成为"导演"。 今天,我们为你汇总了全网最实用的 Seedance 2.0 提示词和使用技巧,让你快速从入门到精通。