OpenDroneMap (ODM) 无人机影像三维模型重建安装及使用快速上手

OpenDroneMap (ODM) 无人机影像三维模型重建安装及使用快速上手

1 文档概述

本文档是指导用户从零开始,使用 OpenDroneMap 对无人机采集的影像数据进行处理,生成三维点云、数字表面模型(DSM)、正射影像图(Orthomosaic)等成果。

本文档的预期读者为拥有无人机航拍影像(JPG/PNG格式)并希望进行三维建模的用户。

2.1 系统运行环境要求

- 操作系统:Windows 10/11, macOS, 或 Linux (推荐 Ubuntu)。

- CPU:多核心处理器(4核以上推荐,8核或更多更佳)(处理200张以上影像建议16GB+)。

- 内存 (RAM):至少 16GB,处理大面积区域建议 32GB 或以上。

- 硬盘空间:预留充足的存储空间。原始影像、中间文件和最终成果会占用大量空间。建议准备 影像大小的10-20倍 的可用空间(例如,1GB影像需要10-20GB空间)。

- 显卡 (GPU):虽然ODM主要依赖CPU,但拥有支持CUDA的NVIDIA GPU可以显著加速某些步骤(如深度图计算)。AMD/Intel集成显卡也可运行,但速度较慢

2.2 数据准备

· 将无人机采集的所有照片集中存放在一个文件夹中。

· 确保照片包含GPS信息(EXIF中的GPS Latitude, GPS Longitude, GPS Altitude)。这是自动定位的关键。检查方式:右键图片查看属性,图片需要带有位置信息,如下图所示:

· 建议使用一致的拍摄设置(分辨率、焦距、光圈),重叠率建议:航向重叠70%-80%,旁向重叠60%-70%。

· 清理掉模糊、过曝或完全遮挡的照片。· 如果没有数据,可以参考官方提供的数据示例:比如使用aukerman数据:

https://github.com/OpenDroneMap/ODMdata

3. OMD安装部署

3.1 系统安装说明

3.1.1 手动安装(推荐)

下载地址:https://github.com/OpenDroneMap/ODM/releases 

下载exe文件,双击安装运行,运行成功后出现ODM Console弹窗。

3.1.2 Docker安装指南

ODM推荐使用Docker容器化部署,避免复杂的依赖配置。以下是各操作系统的安装步骤(已安装Docker或者Dockerdesktop可以忽略安装部分,直接拉取镜像):

3.1.2.1 Windows系统

 1、访问Docker Desktop官网下载安装程序:

https://www.docker.com/products/docker-desktop/

2、双击安装文件,启用"使用WSL 2而不是Hyper-V"选项

3、安装完成后启动Docker,等待系统托盘图标显示"Docker Desktop running"

3.1.2.2 macOS系统

使用Homebrew安装:brew install --cask docker

从应用程序文件夹启动Docker

首次运行需在系统偏好设置→安全性与隐私中允许开发者权限。

3.1.2.3 Linux系统

# Ubuntu/Debian示例 sudo apt-get update sudo apt-get install docker-ce docker-ce-cli containerd.io sudo usermod -aG docker $USER  # 允许当前用户运行docker命令 newgrp docker  # 无需重启即可应用用户组变更

3.1.2.4 镜像包拉取

验证Docker是否安装成功:

docker --version  # 应显示Docker version 20.10+

拉取odm镜像

docker pull opendronemap/odm:latest

中国用户可使用镜像加速服务:

docker pull registry.docker-cn.com/opendronemap/odm

4. 系统使用说明

4.1 航拍照片处理

需要新建一个文件夹,并在里面建立一个images文件夹(存放要拼接的图片),图片需要自带GPS信息,(如果没有GPS信息,则需要用geo.txt文件存放图片的GPS信息)。

4.2 手动安装ODM执行(推荐)

在ODM Console弹窗中输入‘run --feature-type=sift --matcher-type=flann --skip-3dmodel D:\odm_test’ 运行,其中最后面‘D:\odm_tes’为存放照片的文件夹路径。

run --feature-type=sift --matcher-type=flann --skip-3dmodel D:\odm_test

等待执行,(24张照片,我大概跑了10分钟)出现ODM app finished以下页面,则表示运行完毕。

文件夹中,除了准备的images、geo.txt和test.py准备文件,剩下的都是生成的结果文件,按需选择相应的结果。使用meshlab软件查看ply文件,可以看到三维模型。

4.3 Docker版本ODM执行

4.3.1 基础重建命令详解

在终端中执行以下命令启动基础重建流程:

Linux/Mac示例

docker run -ti --rm -v ~/datasets:/datasets opendronemap/odm --project-path /datasets/my_project

Windows示例

docker run -ti --rm -v c:/datasets:/datasets opendronemap/odm --project-path /datasets/my_project

命令参数解析:

-ti:启用交互式终端

--rm:处理完成后自动删除容器

-v:挂载本地目录到容器内(格式:本地路径:容器路径)

--project-path:指定项目根目录

my_project:项目名称(对应datasets下的文件夹)

执行命令后,ODM将显示实时进度,典型输出如下:

[INFO]    Initializing ODM 3.1.9

[INFO]    Maximum photo dimensions: 5472px

[INFO]    Loading 120 images

[INFO]    Found GPS coordinates in EXIF data

[INFO]    Running OpenSfM reconstruction

[INFO]    Feature matching complete (12456 features matched)

4.3.2 高级参数调优

根据项目需求添加参数可显著提升输出质量。以下是最常用的优化参数:

4.3.2.1 提高重建精度

生成数字表面模型(DSM)并提高正射影像分辨率至2cm/像素

docker run -ti --rm -v ~/datasets:/datasets opendronemap/odm --project-path /datasets/my_project --dsm --orthophoto-resolution 2

4.3.2.2 处理大型数据集

启用分块处理,限制内存使用

docker run -ti --rm -v ~/datasets:/datasets opendronemap/odm --project-path /datasets/my_project --split 100 --max-concurrency 4

4.3.2.3 GPU加速(需NVIDIA显卡)

使用GPU加速特征提取,处理速度提升2-3倍

docker run -ti --rm -v ~/datasets:/datasets --gpus all opendronemap/odm:gpu --project-path /datasets/my_project --use-gpu

完整参数列表可通过docker run opendronemap/odm --help查看,常用参数速查表:

4.4 数据查看软件

4.4.1 正射影像与DEM查看(QGIS)

1. 下载安装

QGIS(国内用户建议使用OSGeo中国镜像)

2. 启动后点击"图层"→"添加图层"→"添加光栅图层"

3. 选择odm_orthophoto.tif文件,QGIS会自动识别地理坐标并定位

4.4.2 点云分析(CloudCompare)

1. 安装

CloudCompare

2. 打开软件后拖拽odm_georeferenced_model.laz文件到窗口

3. 使用快捷键:

4. W:切换线框/实体显示

5. E:调整点大小

6. Ctrl+F:启用颜色映射,按高程着色

4.4.3 三维模型查看(MeshLab)

 1. 安装

MeshLab

2. 打开odm_textured_model.obj文件

3. 右键点击模型→"渲染"→"纹理"启用纹理显示

5. 常见问题解决与性能优化

1. 影像重叠不足:确保前向重叠>70%,旁向>60%,解决方案:重新规划航线或使用--min-num-features 8000参数

2. 内存不足:处理200张以上影像需16GB+内存,临时解决方案:--downsample 0.5降低分辨率

3. GPS数据缺失:部分无人机未记录GPS,解决方案:添加--no-gps参数

4. 影像模糊:运动模糊会导致特征匹配失败,建议飞行速度

5. 光照变化大:拍摄时光照条件不一致,使用--use-3dmesh-texturing参数

6. 磁盘空间不足:单个项目需5-15GB空间,清理odm_texturing目录可释放临时文件

7. Docker权限问题:Linux用户需加入docker用户组,执行sudo usermod -aG docker $USER

8. 中文字符路径:所有文件夹和文件名不能包含中文

9. 相机参数异常:执行exiftool images/*.jpg检查焦距信息是否存在

10. 网络超时:首次运行需下载依赖,建议使用国内镜像或加速服务

6. 参考资料:

https://blog.ZEEKLOG.net/gitblog_00189/article/details/151913607

https://segmentfault.com/a/1190000010612098

https://blog.ZEEKLOG.net/V_V_V_V_V_V/article/details/148581770

https://blog.ZEEKLOG.net/Hugh_W/article/details/144175562

Read more

Leather Dress Collection开源大模型实践:Stable Diffusion 1.5皮革垂直领域应用

Leather Dress Collection开源大模型实践:Stable Diffusion 1.5皮革垂直领域应用 1. 项目介绍 Leather Dress Collection是一个专注于皮革服装设计的AI生成工具集,基于Stable Diffusion 1.5模型开发。这个项目包含了12个专门针对不同皮革服装风格的LoRA模型,可以帮助设计师、时尚爱好者快速生成高质量的皮革服装概念图。 这套工具特别适合以下人群使用: * 服装设计师寻找灵感 * 电商平台需要快速生成商品展示图 * 时尚博主创作内容 * 游戏/影视角色服装设计 2. 模型特点与优势 2.1 模型技术特点 Leather Dress Collection采用LoRA(Low-Rank Adaptation)技术对基础模型进行微调,这种技术有以下几个优势: * 模型文件小(平均19MB) * 训练成本低 * 可以灵活组合使用 * 生成效果专业 2.2 包含的服装风格 这套模型覆盖了多种流行的皮革服装风格: * 紧身连衣裙(Leather Bodycon Dress)

AI绘画效率革命:Z-Image-Turbo4步极速显影技术

AI绘画效率革命:Z-Image-Turbo 4步极速显影技术 引言 还在为生成一张高清AI图片等上几分钟甚至十几分钟吗?那种看着进度条缓慢爬升,或者中途因为显存不足而报错崩溃的体验,相信很多尝试过AI绘画的朋友都经历过。传统的扩散模型虽然效果惊艳,但动辄20步、50步的迭代计算,让“快速出图”成了一种奢望。 今天要介绍的 Z-Image-Turbo 极速云端创作室,就是为了解决这个痛点而生的。它搭载了与SDXL Turbo同源的加速引擎,将图像生成过程压缩到了惊人的 4步。这不仅仅是速度的提升,更是一种工作流的革新——从“等待渲染”到“立等可取”。想象一下,你输入一段描述,点击生成,几乎在眨眼之间,一张1024x1024的高清图片就呈现在你面前。无论是寻找灵感的概念设计师,还是需要快速产出素材的内容创作者,这都意味着效率的指数级飞跃。 本文将带你深入了解这项“4步极速显影”技术的核心原理,并手把手教你如何快速部署和使用这个镜像,体验真正的AI绘画效率革命。 1. 极速背后的技术核心:Turbo加速与稳定性保障 Z-Image-Turbo之所以能实现“秒级出图”,并非简

Cogito-v1-preview-llama-3B高性能:vLLM Serving + OpenAI兼容API部署教程

Cogito-v1-preview-llama-3B高性能:vLLM Serving + OpenAI兼容API部署教程 1. 引言:为什么选择Cogito模型? 如果你正在寻找一个既强大又实用的语言模型,Cogito-v1-preview-llama-3B绝对值得关注。这个模型在同等规模的开源模型中表现突出,在很多标准测试中都超过了其他知名模型。 这个教程能帮你做什么? * 快速部署Cogito模型到你的服务器 * 使用vLLM实现高性能推理服务 * 通过OpenAI兼容的API调用模型 * 在10分钟内完成从零到可用的完整流程 不需要深厚的机器学习背景,只要会基本的命令行操作,就能跟着本教程完成部署。让我们开始吧! 2. 环境准备与快速部署 2.1 系统要求 在开始之前,请确保你的系统满足以下要求: * 操作系统:Ubuntu 20.04/22.04 或 CentOS 8+ * GPU:至少8GB显存(推荐16GB以上) * 内存:16GB RAM以上 * Python:3.8-3.11版本 * CUDA:11.8或12.0版本

Qwen3-VL-WEBUI傻瓜式教程:文科生也能玩转AI绘画,1块钱体验

Qwen3-VL-WEBUI傻瓜式教程:文科生也能玩转AI绘画,1块钱体验 引言:AI绘画其实很简单 作为一名艺术生或创意工作者,你可能经常被各种AI绘画工具的技术术语吓退——"显存占用"、"量化精度"、"多模态模型"这些词听起来就像天书。但今天我要告诉你一个好消息:用Qwen3-VL-WEBUI玩转AI绘画,真的不需要懂编程。 Qwen3-VL是阿里最新推出的多模态大模型,它能同时理解文字和图像。而WEBUI则是它的"傻瓜操作界面",就像手机APP一样点按就能用。最关键的是,现在通过ZEEKLOG算力平台,1块钱就能体验这个强大的AI创作工具。 在这篇教程里,我会用最直白的语言,带你完成: 1. 零代码部署Qwen3-VL-WEBUI 2. 用自然语言生成惊艳画作 3. 调整几个简单参数获得理想效果 4. 解决新手常见问题 1. 准备工作:1分钟搞定环境 1.1 选择适合的GPU配置 虽然Qwen3-VL有多个版本,但我们要用的是专门优化过的8B版本,它对显存要求非常友好: