无人机航测内业处理(iTwin Capture Modeler)

无人机航测内业处理(iTwin Capture Modeler)

iTwin Capture Modeler 内业处理

1、概述

本文以iTwin Capture Modeler(旧名称为Context Capture或Smart3D)软件为例介绍航测建模、土方算量、三维模型在线发布分享等内业处理。
本机所使用笔记本电脑主要配置:
CPU:intel Core Ultra 9 275HX
显卡:NVIDIA GeForce RTX 5070 Ti Laptop GPU 12GB
内存:32GB
注意:内存大小决定是否可以成功建模,内存不足建模失败(不会提示失败原因),推荐16GB以上;硬盘剩余容量建议为建模图片大小的2~3倍,否则会因为容量不足建模失败。

2、内业数据处理

2.1新建工程

打开两个软件,第一个为引擎,建模必须打开,第二个为主程序,第三个为模型浏览查看程序

在这里插入图片描述

开始计算空三或者建模时,主程序进度条卡在某一数值时,检查引擎界面是否有任务在执行,若无可按回车键解决,或者重新打开引擎

在这里插入图片描述


新建工程,保存路径不能有中文

在这里插入图片描述

2.2新建区块

新建区块(也可使用Metashape计算好的空三导入,Metashape空三计算速度更快,但建模质量较低,只生产正射影像可使用Metashape)

在这里插入图片描述

2.3导入影像

导入影像,可选择图片或者文件夹

在这里插入图片描述

2.4第一次空三

提交第一次空三计算,无需设置参数,第一次空三目的是为了对齐影像,建立连接点

在这里插入图片描述


在这里插入图片描述


空三完成后查看空三质量报告,主要看位置不确定性数值,越小越好,看自己需求需要几公分的

在这里插入图片描述


在这里插入图片描述

2.5刺点

点开测量,选择导入自定义文本格式,或者也可以手动添加坐标点

在这里插入图片描述


选择像控点文件,一般为手簿导出的dat格式文件或者txt等

在这里插入图片描述


根据自己坐标文件的格式内容,选择是否忽略头行等,大多数坐标文件分隔符为英文逗号",",根据自己的文件内容格式选择

在这里插入图片描述


本工程采用的是北京54坐标系,1.5°分带,中央子午线为109.5°,需要自定义坐标系

在这里插入图片描述


自定义坐标系,点击编辑,选择坐标系prj文件

在这里插入图片描述

关于如何自定义参考坐标系文件:本工程坐标系中央子午线为109.5°,可以在空间参考系统数据库中找到与本项目中央子午线最接近的坐标系,右键导出,然后在记事本中打开,将其中的中央子午线修改为109.5°即可

在这里插入图片描述


设置点名及xyz,若导入后在三维视图里面没有显示像控点位置则可能为xy坐标搞反了,重新导入像控点文件即可

在这里插入图片描述


刺点:刺点是为了约束平面和高程位置与提高精度,本工程采用当地理论最低潮面为高程0m点,属于地方高程系统,必须刺点;
刺点优先选择标记清晰,位于图片中央的点

在这里插入图片描述

2.6第二次空三

刺点完成后,再次提交空三运算,空三参数默认即可
空三完成后查看质量报告,重投影误差控制在1个像素内,若该点误差过大可能为刺点出现问题,或者也可以删除该点

在这里插入图片描述

2.7三维重建

选择新建重建框架-三维重建

在这里插入图片描述


空间框架中选择要建模的范围,先选择坐标系,如果建模范围为规则矩形可选择框否则使用新建多边形;有具体的范围也可以导入kml文件;切块大小根据自己电脑内存的大小选择,确保内存使用量不大于本机内存的80%

在这里插入图片描述


选择生产OSGB文件

在这里插入图片描述


坐标系选择自己所需坐标系

在这里插入图片描述


等待生产完成,得到一个xml文件和Date文件夹

在这里插入图片描述


生产完成后删除过程文件,释放磁盘空间

在这里插入图片描述


OSGB模型可使用倾斜伴侣查看http://www.osgblab.com/

3、建模精度检查

模型精度检查可采用倾斜伴侣检查,
选择精度检查,浏览控制点文件,选中控制点,在模型上点击标记,最终得到模型精度

在这里插入图片描述

4、提取高程点

4.1Cass中加载模型

选择3D图标,找到模型所在路径,选择后缀为XML的文件,双击打开

在这里插入图片描述

4.2提取高程点

使用闭合范围提取高程点,先绘制要提取高程点的范围线(使用多段线绘制),采点间距按需求选择(本文为10m)

在这里插入图片描述


在这里插入图片描述

4.3土方算量

利用Cass工程应用计算土方

5、模型分享

倾斜摄影模型在线查看分享可使用中交项目管理系统-CBIM协同实现,可创建场景,叠加卫星影像、BIM模型等信息

在这里插入图片描述


在这里插入图片描述

也可通过四维轻云、BIMFACE等在线网页分享查看模型

Read more

AI视频生成模型从无到有:构建、实现与调试完全指南

AI视频生成模型从无到有:构建、实现与调试完全指南

文章目录 * **引言:从理论到实践的跃迁** * **第一部分:理论基石——视频生成模型的核心思想** * **第二部分:开发环境搭建与工具链** * **第三部分:亲手构建一个简易视频生成模型** * **第四部分:系统调试与效果评估** * **第五部分:模型优化与进阶探索** * **第六部分:从玩具到应用——部署与展望** * **结语:你的创造之旅,刚刚开始** 引言:从理论到实践的跃迁 在人工智能内容生成(AIGC)浪潮中,视频生成正成为最具挑战性和想象力的前沿领域。从几秒的动图到理论上无限时长的电影级叙事,技术的边界正在被快速突破。然而,对于大多数开发者和研究者而言,前沿模型如Sora、SkyReels-V2或Wan看似高不可攀,其背后动辄千亿级的数据和庞大的算力需求让人望而却步。 本指南的核心目标,正是要打破这种认知壁垒。我将引导你从最基础的原理出发,亲自动手构建一个具备完整AI特性的视频生成模型。这个模型将遵循“简单但完整”的原则:它可能无法生成好莱坞大片,但会清晰地展现扩散模型如何将噪声转化为连贯的动态序列,以及如何通过注意力机制维

OpenClaw 实战:让 AI 拥有“眼睛“——摄像头访问完全指南

OpenClaw 实战:让 AI 拥有“眼睛“——摄像头访问完全指南

今天冒出个想法,想让openclaw能控制摄像头分析图片。原因是我有本书,网上还没有电子版,想让openclaw分析然后把重点内容讲给我听。 📖让运行在 WSL2 里的 OpenClaw AI 助手能够"看见"摄像头画面。 🚧 探索过程 第一阶段:OpenClaw Node 配对(失败)折腾了 3 小时+,最终因为 WSL2 网络隔离问题放弃。 我在wsl里安了openclaw,他说要控制摄像头,必须在windows上安装node.js,安装npm,折腾了好久,就是报错。结论就是windows和wsl就是隔离的。 具体过程: **安装 Node.js:** 最开始下载了绿色版 Node.js(v24.14.0),遇到了一系列问题: ```powershell # 绿色版 Node.js

2026年最新全球AI大模型深度研究报告

2026年最新全球AI大模型深度研究报告 文章目录 * 2026年最新全球AI大模型深度研究报告 * 摘要 * 第一章 全球AI大模型发展概况 * 1.1 全球AI发展格局:中美双极引领 * 1.2 市场规模与增长趋势 * 1.3 发展阶段特征 * 第二章 核心技术突破分析 * 2.1 主流大模型最新进展 * 2.1.1 美国阵营 * 2.1.2 中国阵营 * 2.2 核心技术突破方向 * 2.2.1 多模态能力 * 2.2.2 长上下文处理 * 2.2.3 推理能力 * 2.2.4 Agent能力 * 2.2.

用 OpenClaw 配置 Codex 5.3:一套“性价比很高”的个人 AI 编程方案

用 OpenClaw 配置 Codex 5.3:一套“性价比很高”的个人 AI 编程方案

这篇是我自己的实战复盘:从 OAuth 报错、模型没切过去,到最终把 OpenClaw 稳定跑在 openai-codex/gpt-5.3-codex 上,并通过飞书远程使用。 先说结论 如果你也在找「便宜 + 强 + 可控」的方案,我现在这套组合非常能打: * OpenClaw 负责 Agent 编排(工具、文件、会话、渠道) * OpenAI Codex 5.3 负责核心编码能力 * Feishu 作为消息入口(随时远程下指令) * 本地 Workspace 放在 G:\claw,项目资产可控 这套的性价比点在于: 1. 不需要重搭一整套复杂平台 2. Codex 5.3 编码质量明显高于普通通用模型