一:ROS2+gazebo+PX4环境搭建:环境搭建到无人机起飞

前言

写博客记录学习的过程。

由于博客是安装完环境后写的,因此实际可能会有一些出入,但是实际上也大差不差的。

环境搭建

前置环境

  • ROS2 humble
  • Gazebo Classic (11)

1.下载 PX4 源码

在你的 Home 目录下,用 Git 克隆 PX4 的代码仓库,并更新所有子模块。

git clone https://github.com/PX4/PX4-Autopilot.git --recursive

注意:由于这个源码中包含许多子模块,因此不建议到github主页下载zip再解压,这样做会缺失许多子模块。使用大陆的网络克隆起来会十分慢,因此强烈建议大家使用网络加速!

2.运行自动安装脚本

PX4 提供了自动化脚本,可以帮你安装编译仿真环境所需的所有依赖。

cd PX4-Autopilot bash ./Tools/setup/ubuntu.sh

由于我这里只用到仿真,并没有与阵势的硬件交互,所以我在运行自动安装脚本的时候,选择不安装固件/编译环境,还有一个原因是安装编译环境的时间太长了,大家可以自行选择。

cd PX4-Autopilot bash ./Tools/setup/ubuntu.sh --no-nuttx

3.编译并运行一个事例

PX4-Autopilot目录下

make px4_sitl gazebo-classic_iris

注意:第一次编译会有点慢,这是正常情况,请耐心等待

像这样弹出gazebo,并且gazebo中显示一个黑色的无人机,则成功了!

4.安装并配置 QGC(地面站)

QGroundControl (QGC) 就是你在地面监控和操控飞机的电脑软件 。安装前,需要先给 Ubuntu 系统做一点小配置,确保它能正常和“飞机”通信。

# 将你的用户添加到 dialout 组,以便访问 USB 设备 sudo usermod -aG dialout "$(id -un)" # 移除 ModemManager,它会干扰串口通信 sudo apt-get remove modemmanager -y # 安装 GStreamer 相关库,用于支持视频流 sudo apt install gstreamer1.0-plugins-bad gstreamer1.0-libav gstreamer1.0-gl -y sudo apt install libfuse2 -y sudo apt install libxcb-xinerama0 libxkbcommon-x11-0 libxcb-cursor-dev -y

https://docs.qgroundcontrol.com/master/zh/qgc-user-guide/getting_started/download_and_install.html中找到linux版本下载并将固件移到主目录下。

# 赋予 AppImage 文件执行权限 chmod +x ./QGroundControl-x86_64.AppImage

5.安装 Micro-XRCE-DDS-Agent(ROS2与PX4通信桥梁)

# 安装依赖 sudo apt install -y ros-humble-ros-base ros-humble-geometry-msgs ros-humble-sensor-msgs # 编译Micro-XRCE-DDS-Agent cd ~ git clone https://github.com/eProsima/Micro-XRCE-DDS-Agent.git cd Micro-XRCE-DDS-Agent mkdir build && cd build cmake .. make sudo make install sudo ldconfig /usr/local/lib/

注意:在编译Micro-XRCE-DDS-Agent时,对网络的要求很高,使用国内网络的朋友建议开启网络加速,即使开启了网络加速,也需要一定时间,此时需要耐心等待。

6.配置 PX4 的 ROS2 接口

cd ~/PX4-Autopilot # 你的PX4目录 # 安装Python依赖 pip3 install --user -U empy pyros-genmsg setuptools # mkdir -p ros2_ws/src cd ros2_ws/src # 克隆PX4消息包 git clone https://github.com/PX4/px4_msgs.git git clone https://github.com/PX4/px4_ros_com.git # 编译 cd .. colcon build

注意:在安装Python依赖时,可能会出现版本的问题,此时需要调整版本,反正我是用这个:

# 降级到稳定组合 pip3 install --user empy==3.3.4 setuptools==59.8.0

注意:每次创建PX4的工作空间,都要克隆PX4的消息包。

7.启动

# 终端1:启动Micro-XRCE-DDS-Agent(通信桥梁) MicroXRCEAgent udp4 -p 8888 # 终端2:启动Gazebo仿真 cd ~/PX4-Autopilot make px4_sitl gazebo-classic_iris # 或者其他机型:gazebo-classic_iris_depth_camera, gazebo-classic_iris_vision等 # 终端3:启动QGroundControl(可选,用于监控) ./QGroundControl-x86_64.AppImage # 终端4:进入工作空间再启动,无人机起飞! ros2 run px4_ros_com offboard_control

总结

本文章完成了ROS2 + gazebo classic + PX4的仿真环境搭建,对后续无人机仿真的学习打下了坚实的环境基础。

这篇文章是我第一次写的文章,有些不足的地方可及时指出,也请多多包容。

参考资料

PX4飞控官网:https://docs.px4.io/main/zh/

QCG地面站:https://qgroundcontrol.com/

Read more

FPGA原型中DUT实时监控接口设计完整示例

以下是对您提供的技术博文进行 深度润色与重构后的专业级技术文章 。整体风格已全面转向 人类专家口吻的实战教学体 :去除所有AI腔调、模板化结构和空泛总结;强化工程语境下的真实挑战、设计权衡、踩坑经验与可复用技巧;语言更紧凑有力,逻辑层层递进,像一位资深FPGA验证工程师在咖啡间边画框图边跟你讲清楚“为什么这么干”。 DUT实时监控不是加个ILA就完事了——一个在250MHz下零时序污染、毫秒回溯、还能热切换触发条件的轻量调试接口是怎么炼成的 你有没有遇到过这种场景? * DUT跑在250MHz主频上,状态机在几纳秒内跳变三次,ILA抓不到中间态,只看到“跳过去了”; * 跨时钟域握手失败,但示波器看不到信号,逻辑分析仪又没足够深的存储深度; * 想看DMA事务完成时刻和PC值的对应关系,结果上位机读取延迟几十毫秒,时间轴全乱了; * 改一行RTL、重新综合、烧写bitstream、重启系统……只为加一个 $display ? 这不是调试,这是刑讯逼供。 我们团队在某AI加速器原型项目中,把这套监控架构跑到了Kintex Ultrascale+上, 主频250MHz,

ROS导航实战:如何用mpc_local_planner让机器人高效避障(附参数调优技巧)

ROS导航实战:如何用mpc_local_planner让机器人高效避障(附参数调优技巧) 在机器人导航的实战中,局部路径规划器的表现直接决定了机器人在复杂环境下的“驾驶体验”。你是否遇到过机器人面对突然出现的障碍物时犹豫不决,或者转弯时轨迹不够平滑,甚至直接“卡死”在原地的情况?这些问题往往不是机器人硬件的问题,而是局部规划器的选择和调参不当所致。在众多规划器中,mpc_local_planner 凭借其基于模型预测控制(MPC)的优化内核,在处理动态避障和平滑性方面展现出了独特的优势。它不像传统的动态窗口法(DWA)那样只做短视的采样,而是通过预测未来一段时间的轨迹并优化,从而做出更“聪明”的决策。 这篇文章不会重复那些基础的安装和启动步骤,而是直接从实战应用出发,面向那些已经搭建好ROS导航框架,却苦于机器人避障效果不佳的开发者。我们将深入探讨如何配置 mpc_local_planner,特别是针对动态避障场景,分享一系列从踩坑中总结出的参数调优技巧。我会结合具体的Rviz演示效果,对比默认参数与优化参数下的机器人行为差异,并详细解析 costmap_converter 插件

3小时搞定PX4飞控:从零搭建无人机自主飞行系统

3小时搞定PX4飞控:从零搭建无人机自主飞行系统 【免费下载链接】PX4-AutopilotPX4 Autopilot Software 项目地址: https://gitcode.com/gh_mirrors/px/PX4-Autopilot 想要快速掌握无人机飞控核心技术?今天我就带你用3小时完成PX4飞控系统的完整搭建。无论你是无人机爱好者还是专业开发者,这套实战方案都能帮你避开弯路,直达目标! 🚀 快速上手:环境配置与项目获取 系统要求很简单: * Ubuntu 18.04及以上版本 * 4GB内存和20GB磁盘空间 * 稳定的网络环境 一键安装基础工具: sudo apt update && sudo apt install git cmake build-essential -y 获取PX4源码: git clone https://gitcode.com/gh_mirrors/px/PX4-Autopilot

解析ESP-SparkBot开源大模型AI桌面机器人的ESP32-S3核心方案

解析ESP-SparkBot开源大模型AI桌面机器人的ESP32-S3核心方案

ESP-SparkBot是一款基于乐鑫ESP32-S3微控制器构建的开源大模型AI桌面机器人。该项目集成了语音交互、图像识别、远程遥控与多媒体功能于一体,通过创新的边缘-云端协同架构,在低成本硬件上实现了复杂的多模态交互能力,为嵌入式AI应用提供了一个高性价比的参考设计。 一、核心硬件与技术特性 ESP-SparkBot的核心是乐鑫ESP32-S3-WROOM-1-N16R8模组。该模组集成了双核Xtensa® LX7 32位处理器,主频高达240MHz,并配备了512KB片上SRAM。这一计算配置为设备在边缘侧执行实时音频采集、预处理和轻量级AI推理(如语音活动检测、本地关键词识别)提供了必要的算力基础。 在连接性方面,ESP32-S3内置了2.4GHz Wi-Fi 4 (802.11 b/g/n)和蓝牙5.0 (BLE)双模无线通信模块。这使得ESP-SparkBot能够稳定地连接网络,与云端大语言模型(LLM)服务进行数据交换,同时也支持通过手机App进行蓝牙配网和本地控制。丰富的I/O接口,包括I2S、I2C、SPI和ADC等,使其能够灵活扩展多种外设。在项目中,这些接