PX4无人机|MID360使用FAST_LIO,实现自主飞行及定点——PX4无人机配置流程(六)

PX4无人机|MID360使用FAST_LIO,实现自主飞行及定点——PX4无人机配置流程(六)

PX4固件版本为1.15.4

qgc地面站版本为4.4.5

飞控,使用微空科技MicoAir743V2

机载电脑:12代i5,ubuntu20.04

安装位置:mid360的接口对应飞机的后方

推荐阅读px4+vio实现无人机室内定位_px4+室内视觉定位-ZEEKLOG博客

和飞控连接机载电脑相关,有用

代码参考:

PX4|基于FAST-LIO mid360的无人机室内自主定位及定点悬停_fastlio mid360-ZEEKLOG博客
使用视觉或动作捕捉系统进行位置估计 | PX4 指南(主) --- Using Vision or Motion Capture Systems for Position Estimation | PX4 Guide (main)

一.px4飞控设置

建议看官方文档:Using Vision or Motion Capture Systems for Position Estimation | PX4 Guide (main)

1.将px4定位数据源设置为vinsion

参数EKF2_EV_CTRL:可以默认,或者看参数手册按需配置(该教程默认)Parameter Reference | PX4 Guide (main)



EKF2_HGT_REF参数:Vision 

 2.关闭罗盘:

教程:
PX4 | 无人机关闭磁力计罗盘飞行(yaw estimate error报错解决方法)-ZEEKLOG博客

需要注意的是,你现在走完上面飞控的设置,机头上电后会指向北。但在走完下面的程序后,你会发现上电后无人机机头指向东方(罗盘已经被关了)如下图所示

此外,加一个激光测距融合好处多多

二、程序

注意,下面我把雷达等频率改到了30HZ,但是在这频率下,定位精度实测只能有10hz的60%不到,慎重选择是否改频率!!!!!

1.代码

接下来创建发布 /mavros/vision_pose/pose 话题的功能包过程了

这里只提供代码,具体创建工作空间和功能包的步骤建议问AI

主要功能:将转化后的位姿信息以话题 /mavros/vision_pose/pose 发布。

#!/usr/bin/python3 #上面的python3不一定是这样写,建议找ai优化一下代码,和前面的推荐文章里的CPP代码其实一样的,该代码发布频率不太对 import rospy from nav_msgs.msg import Odometry from geometry_msgs.msg import PoseStamped import tf import numpy as np from collections import deque import math # 滑动窗口平均类,用于平滑 yaw 值 class SlidingWindowAverage: def __init__(self, window_size): self.window_size = window_size self.data_queue = deque() self.window_sum = 0.0 def add_data(self, new_data): # 如果新数据与上一个数据差异过大,重置队列 if self.data_queue and abs(new_data - self.data_queue[-1]) > 0.01: self.data_queue.clear() self.window_sum = 0.0 self.data_queue.append(new_data) self.window_sum += new_data # 如果队列大小超过窗口大小,移除最早的数据 if len(self.data_queue) > self.window_size: self.window_sum -= self.data_queue.popleft() return self.window_sum / len(self.data_queue) def get_size(self): return len(self.data_queue) def get_avg(self): if self.data_queue: return self.window_sum / len(self.data_queue) else: return 0.0 class FastLIOToMavros: def __init__(self): rospy.init_node('fastlio_to_mavros', anonymous=True) # 初始化位姿和四元数 self.p_lidar_body = np.zeros(3) self.q_mav = [0, 0, 0, 1] self.q_px4_odom = [0, 0, 0, 1] self.window_size = 8 self.swa = SlidingWindowAverage(self.window_size) self.init_flag = False self.init_q = tf.transformations.quaternion_from_euler(0, 0, 0) # 订阅 Fast-LIO 的 Odometry 数据 rospy.Subscriber('/Odometry', Odometry, self.vins_callback) # 订阅 PX4 的本地位置 Odometry 数据 rospy.Subscriber('/mavros/local_position/odom', Odometry, self.px4_odom_callback) # 发布视觉位姿数据到 PX4 self.vision_pub = rospy.Publisher('/mavros/vision_pose/pose', PoseStamped, queue_size=10) self.rate = rospy.Rate(30.0) self.run() def from_quaternion_to_yaw(self, q): # 将四元数转换为 yaw 角 euler = tf.transformations.euler_from_quaternion(q) return euler[2] def vins_callback(self, msg): # 获取 Fast-LIO 提供的位姿和四元数 self.p_lidar_body = np.array([ msg.pose.pose.position.x, msg.pose.pose.position.y, msg.pose.pose.position.z ]) self.q_mav = [ msg.pose.pose.orientation.x, msg.pose.pose.orientation.y, msg.pose.pose.orientation.z, msg.pose.pose.orientation.w ] def px4_odom_callback(self, msg): # 获取 PX4 的本地位置四元数,并计算 yaw 角 self.q_px4_odom = [ msg.pose.pose.orientation.x, msg.pose.pose.orientation.y, msg.pose.pose.orientation.z, msg.pose.pose.orientation.w ] yaw = self.from_quaternion_to_yaw(self.q_px4_odom) self.swa.add_data(yaw) def run(self): while not rospy.is_shutdown(): # 初始化 yaw 角 if self.swa.get_size() == self.window_size and not self.init_flag: init_yaw = self.swa.get_avg() self.init_q = tf.transformations.quaternion_from_euler(0, 0, init_yaw) self.init_flag = True if self.init_flag: # 旋转位姿以对齐初始 yaw 角 rot_matrix = tf.transformations.quaternion_matrix(self.init_q)[:3, :3] p_enu = np.dot(rot_matrix, self.p_lidar_body) # 构建并发布视觉位姿消息 vision = PoseStamped() vision.header.stamp = rospy.Time.now() vision.header.frame_id = "map" # 根据实际情况设置 vision.pose.position.x = p_enu[0] vision.pose.position.y = p_enu[1] vision.pose.position.z = p_enu[2] vision.pose.orientation.x = self.q_mav[0] vision.pose.orientation.y = self.q_mav[1] vision.pose.orientation.z = self.q_mav[2] vision.pose.orientation.w = self.q_mav[3] self.vision_pub.publish(vision) rospy.loginfo( "\nPosition in ENU:\n x: {:.3f}\n y: {:.3f}\n z: {:.3f}\nOrientation of LiDAR:\n x: {:.3f}\n y: {:.3f}\n z: {:.3f}\n w: {:.3f}".format( p_enu[0], p_enu[1], p_enu[2], self.q_mav[0], self.q_mav[1], self.q_mav[2], self.q_mav[3] ) ) self.rate.sleep() if __name__ == '__main__': try: FastLIOToMavros() except rospy.ROSInterruptException: pass 



自行创建fastlio_to_mavros节点的launch文件

2.运行mid360和fastlio的程序,修改雷达扫描频率

建议参考MID360+fastlio功能笔记-ZEEKLOG博客

按照官方说法 修改livox_ros_driver2 msg_MID360.launch ,使其频率达到30HZ(其实默认也能用)方法在livox_ros_driver2的github底下写了。

roslaunch livox_ros_driver2 msg_MID360.launch 在另一个终端中执行 roslaunch fast_lio mapping_mid360.launch

 输入下图指令查看是否修改了

3.运行mavros

安装步骤参考:mavros安装——解决疑难杂症- PX4无人机配置流程(三)-ZEEKLOG博客
 roslaunch mavros px4.launch

必须运行上面指令后马上运行下面的 fastlio_to_mavros 

4.运行自己创建的fastlio_to_mavros节点的launch文件

运行结果,和qgc里的画面(飞控通过数传和Windows电脑QGC连接,故而频率很低)


 

三、验证

推荐用官方的仿真来理解坐标系

你会发现一运行fastlio_to_mavros节点,无人机机头突然从指向北变成指向东方(确保罗盘已经被关了)

在Ubuntu上位机看输入rostopic echo /mavros/local_position/pose机头所指的方向为正X。X在前,Y朝向左,Z朝向下
打开qgc、点左上角Analyze Tools——>MAVlink检测,出现了LOCAL_POSITION_NED数据,坐标系看法如下:NED坐标系,X为北,Y为东,Z为下,机头指向东,那么向东运动(机头方向),Y会增大。向北运动(飞机左方向),X会增大。那么向上运动,Z会是负数,且越来越负。

实机向前方运动

会发现 QGC的LOCAL_POSITION_NED的Y增大

/mavros/local_position/pose的X增大

实机向右方运动

会发现 QGC的LOCAL_POSITION_NED的X变小为负数

/mavros/local_position/pose的Y变小为负数

当飞机向上运动

会发现 QGC的LOCAL_POSITION_NED的Z变成负数并且不断减小

实机建议调好pid再起飞,本人只试过定点飞行,没有任何问题

Read more

自用超半年的免费 OCR 工具分享:告别付费,本地搭建更安心

自用超半年的免费 OCR 工具分享:告别付费,本地搭建更安心

前言 作为一个经常需要提取图片文字的打工人,以前总被各种 OCR 工具折腾得够呛 —— 在线工具要么限次数,要么识别慢,传隐私图片还总担心泄露;付费的 OCR 软件一年下来也是笔不小的开销,性价比实在不高。直到偶然用上了 PaddleOCR-VL,才算彻底解决了这些烦恼。 用下来最大的感受就是 “省心又靠谱”:不用再频繁切换各种在线平台,本地部署后随时能用,识别印刷体、手写体甚至复杂的数学公式都又快又准,完全不输付费工具;而且所有识别过程都在自己电脑上完成,隐私性拉满,再也不用顾虑图片上传的问题。 好东西当然要和大家分享,下面就把这套 “私人 OCR 平台” 的搭建和使用方法完整整理出来,跟着做,你也能告别付费 OCR,拥有专属的高效文字识别工具。 1 什么是PaddleOCR-VL? PaddleOCR‑VL 是 PaddleOCR 3.x 系列中的一款 视觉‑语言多模态文档解析模型,专门面向复杂文档场景设计。相比传统 OCR 仅能识别文字,

7个用于运行LLM的最佳开源WebUI

7个用于运行LLM的最佳开源WebUI

无论是希望将AI大模型集成到业务流程中,还是寻求企业客户服务自动化,亦或者是希望创建一个强大的个人学习工具。可能都需要考虑数据安全、灵活度以及更具有可控性的使用和开发基础。值得考虑的一个方案是:将大模型(LLM)私有化并且创建一个好用的LLM WebUI系统。 下面,我们推荐7个出色的开源LLM WebUI 系统。 01.Open WebUI(Ollama WebUI) https://github.com/open-webui/open-webui Star:45.7K 开发语言:Python、TypeScript\Svelte Open WebUI是一个可扩展、功能丰富且用户友好的WebUI,旨在完全离线操作。它支持包括Ollama和OpenAI在内的各种LLM运行容器或者API。 产品特点: * 直观的界面:受ChatGPT启发的用户友好型聊天 * 响应式设计:在桌面和移动的上实现流畅的性能 * 轻松安装:使用Docker/Kubernetes轻松安装 * 主题定制:个性化与多个主题 * 高亮:增强代码的可读性 * Markdown LaTeX支持:

2026年Gemini学生认证实战指南:如何将免费Pro权限转化为AI求职核武器!

2026年Gemini学生认证实战指南:如何将免费Pro权限转化为AI求职核武器!

“AI时代的求职差距,不在于是否拥有工具,而在于能否用工具创造可验证的价值——Gemini学生计划,正是给学生的‘低门槛实战入场券’” 本文核心:解读Gemini学生计划的职业价值+AI岗位能力要求+3大实战方向,帮你把免费福利转化为职场硬实力! 💡 为什么2026年,Gemini学生计划成了AI求职的“隐形加分项”? 梳理近半年大厂AI岗位招聘需求、面试反馈,发现一个明确信号:企业对“会用大模型解决问题”的候选人需求激增,而Gemini学生计划恰好提供了“零成本实战”的机会: ✅ 腾讯AILab 岗位要求:“熟悉主流大模型API调用(Gemini/Claude等优先)” ✅ 字节智能创作团队 面试题:“如何用大模型优化内容生产效率?请举例说明” ✅ 某独角兽CTO分享:“能展示大模型实战项目的候选人,比仅列‘熟悉AI工具’的通过率高2倍” ✅ LinkedIn 2026职业趋势报告:“大模型应用能力已成为AI相关岗位的‘基础门槛’,而非‘加分项’” 📌 关键洞察: 企业关注的从来不是“你是否通过了Gemini认证”,而是你是否能借助Gemini这类工具,解决真实业务场景

AI毕业论文写作指令全攻略:50条高效生成指令助你零基础完成高质原创论文

AI毕业论文写作指令全攻略:50条高效生成指令助你零基础完成高质原创论文

引言 在当今这个数字化迅猛发展的时代,人工智能(AI)技术正以一种前所未有的速度,深刻地改变着我们的生活与工作模式。对于那些即将毕业的大学生和研究生而言,撰写一篇高质量的毕业论文,无疑是他们迈向学术和职业道路的重要一步。然而传统的论文写作过程往往充满了各种挑战,需要投入大量的时间和精力。而人工智能技术的出现,为论文写作提供了一种全新的解决方案,它能够助力我们更高效地完成论文撰写工作。同时,在撰写过程中也可以借助图灵论文ai写作助手这样的学术ai工具,高效完成论文写作,一站式解决论文烦恼。本文将为大家呈上一份全面的AI毕业论文写作指令攻略,其中包含50条高效生成指令。即便你是零基础,也能借助这些指令完成高质量的原创论文。 论文前期准备阶段的指令 确定研究论题 * 指令1:“结合当前[具体领域]的热门趋势,给出5个具备研究价值的毕业论文论题。” 举例来说,在人工智能领域,你可以输入“结合当前人工智能的热门趋势,给出5个具有研究价值的毕业论文论题。”此时,AI可能会给出诸如“基于深度学习的图像识别算法优化研究”“人工智能在医疗诊断中的应用与挑战”等论题。 * 指令2:“对