Pix4Dmapper处理大疆无人机影像数据教程

Pix4Dmapper处理大疆无人机影像数据教程

        初次接触无人机数据处理时,我完全找不到清晰的流程指引,甚至对大疆采集的数据如何使用都毫无头绪。查阅了不少资料,发现信息也相当有限。为避免日后遗忘,特此记录下摸索出的操作流程,权当备忘。

  1. 想要使用Pix4D软件的朋友请注意:这款软件需要付费购买。我查阅了网上资源,发现大多数人都没有提供免费版本。我已经购买了“正版”软件,有需要的朋友可以私信我,我会分享下载链接给你。
  2. 结束,到这里

下面是软件处理影像过程
(1)、首先打开Pix4DTool,点击start或者Auto start以后,立马会将软件的网进行断开,这样就可以进行使用pix4d软件了。
(2)、此时打开软件的界面如下所示


(3)、拷贝数据到电脑然后打开软件新建项目输入项目名称并选好路径点击下一步


(4)、添加无人机照片路径或选择添加照片完成并点击下一步


(5)、因为精灵RTK照片自带POS信息这里就直接默认坐标系,相机参数是写入在照片里可以自动读取,如果不确定就用记事本打开照片找到XMP把相机信息参数输入点击下一步


(6)、输出坐标系选择自己需要的坐标系,和像控点一致的坐标系或RTK默认的CGCS2000坐标系,然后点击下一步


(7)、这里因为是需要正射影像图所以选择第一个标准3D Maps 输出质量高然后点击Finish就完成创建项目


(8)、项目创建完成到这个界面,地图视图里显示照片位置无错乱就可以开始处理数据


(9)、处理数据前打开设置把自己电脑的显卡勾选上启动显卡加速,一般数据没问题可以直接勾选1、2、3步直接完成,如果不确定数据是否正确或者有像控点一般只勾选第一步初始化处理然后点击确定点击开始处理就行


(10)、我的数据没有问题,所以我三个都勾选了,下面是处理的结果过程,绿色的代表处理完成了,红色代表还在处理中


(11)、处理完成第一步以后,如果界面下面的进度条是绿色,表示没有任何报错,第一步就处理成功了。


(12)、根据步骤(11)的说明,初始化处理已正确完成。接下来两个步骤可能需要较长时间处理,仅第一步就耗费了大量时间。我的显卡型号是5070TI,预计完成全部步骤需要几个小时,请耐心等待处理完成,下面我直接展示最终的结果。


下面是DSM图以及正射影像图片



(13)、项目所有成果数据文件都在创建的文件夹下,里面的1、2、3代表里面的数据和对应成果文件


(14)、一般所需要的都在文件夹3dsm里面,打开第三个文件夹,里面的1是DSM高程模型数据,里面的2是正射影像图数据


(15)、我们所需要的正射影像图就在此路径下,打开里面的一张TIF和TFW就是我们所需要的影像图和坐标文件


(16)、我们处理以后得到的数据或多或少可能有点问题,但是你可以拷贝出来用其他的软件进行处理。

Pix4D安装指南:
(1)、下载压缩包

(2)、解压后即可获得所需的文件内容



(3)、在同一个文件夹下,找到一下文件点击进行安装


(4)、一路点击NEXT就可以了,需要换文件夹的,直接换一下就好了,到最后将Launch Pix4Dmapper取消勾选就可以了。


(5)、然后找到压缩过后的文件夹,选中“硬件获取.exe”文件,进行打开


(6)、此时需要获取你计算机系统的名字,这个你可以去Windows设置中的系统中进行寻找。


(7)、找到系统名以后将其复制到Generate HWID旁边的1框中,然后将2框中的ID码全部复制下来。



(8)、打开“4D-Permit-4X”将从上述2框获取的机器码粘贴到下图HWID的1框里面,单击2框Decode键,将3框中的days里的1修改成9999点击4框中的SAve REG


(9)、此时会在相应的目录下面生成一个注册表,双击注册表


(10)、双击注册表后,会出现下面的问题,你需要点击确定就可以了。



(11)、将“Pix4DTool”复制到桌面,用鼠标右键的管理员身份运行Pix4DTool工具,点击auto start后断网(断网工具不影响电脑正常上网。只是把pix4d网断掉。)然后就可以启动pix4d软件了(部分电脑需重启后再打开Pix4DTool才能生效)。


(12)、此时你只要在将软件打开就可以了。


 

Read more

YOLOv8n机器人场景目标检测实战|第一周工作笔记1

核心完成项:基于Conda搭建Ultralytics8.0+PyTorch2.1专属环境,完成COCO2017机器人场景子集筛选(8000张,7000训+1000验),跑通YOLOv8n基础训练(epoch=50),小障碍物mAP≥65%,模型可正常输出推理结果,满足周验收全部目标。 环境说明:全程使用Conda进行包管理与环境隔离,无pip命令使用,规避版本兼容问题;模型选用YOLOv8n(轻量化版本,适配机器人端算力限制),替代原计划YOLOv9n,核心实操逻辑一致。 一、本周核心目标与执行思路 1. 核心目标 1. 掌握YOLO系列核心创新与轻量化模型适配逻辑,聚焦机器人室内小场景(室内小障碍物/桌椅/行人/台阶)检测需求; 2. 搭建稳定可复现的Ultralytics+PyTorch训练环境,规避版本冲突; 3. 筛选并整理符合YOLO格式的机器人场景自定义数据集,完成基础标注与训练集/验证集划分; 4. 跑通YOLOv8n基础训练流程,验证数据集与模型兼容性,获取基础精度、参数量、

【具身智能】具身机器人VLA算法入门及实战(一):具身智能系统及VLA

【具身智能】具身机器人VLA算法入门及实战(一):具身智能系统及VLA

具身机器人VLA算法入门及实战(一):具身智能系统及VLA * 一、常见具身智能系统 * 二、具身智能数据获取方式 * 三、具身智能-感知系统 * 四、具身智能学习方式 * 五、工业机器人及应用需求 * 六、VLA架构及开源项目 * 6.1 VLA架构 * 6.2 开源项目 * 七、机器人操作案例 一、常见具身智能系统 二、具身智能数据获取方式 数据获取平台: Isaac Sim, Isaac Gym, Mujoco, 桃园 2.0 数据增强平台: RoboVerse, Genie Studio, DexMimicGen 三、具身智能-感知系统 四、具身智能学习方式 五、工业机器人及应用需求 六、VLA架构及开源项目 6.

FPGA Debug:PCIE XDMA没有Link up(驱动检测不到xilinx PCIE设备)使用LTSSM定位问题

FPGA Debug:PCIE XDMA没有Link up(驱动检测不到xilinx PCIE设备)使用LTSSM定位问题

问题现象: 与驱动联调:驱动无法扫描到Xilinx的PCIE设备 通过ila抓取pcie_link_up信号:发现link up一直为低 问题分析:         出现这种情况,在FPGA中搭建测试环境,使用XDMA+BRAM的形式,减少其它模块的影响,框架如下: 1 检查PCIE的时钟 时钟,必须使用原理图上的GT Ref 差分时钟,通过IBUFDSGTE转为单端时钟 2 检查PCIE 复位 复位:PCIE复位信号有要求--上电后,PCIE_RESTN信号需在电源稳定后延迟一段时间再释放,通常是100ms以上 而这100ms的时间,系统主要做以下的事情: * 电源稳定时间 * 参考时钟稳定时间 * PCIe IP核的复位和初始化时间 * 链路训练时间 // 典型的100ms时间分配: 0-10ms   : 电源稳定 (Power Stable) 10-20ms  : 参考时钟稳定 (Refclk Stable)   20-30ms  : 复位释放和PLL锁定 (Reset Release

阿里云的moltbot机器人使用钉钉的Stream流式接入

注意 1. 这个不需要工作流 2. 这个不需要开放外网 具体方法: 1.check代码https://github.com/DingTalk-Real-AI/dingtalk-moltbot-connector 2.package.json增加如下代码 "moltbot": { "extensions": ["./plugin.ts"], "channels": ["dingtalk-connector"], "installDependencies": true } 3.安装插件 moltbot plugins install dingtalk-moltbot-connector 4.增加钉钉配置~/.moltbot/moltbot.json;如果有了进行提花 { "channels"