《从零搭建自主无人机》—2——硬件设备搭建及EGOPlanner实现

《从零搭建自主无人机》—2——硬件设备搭建及EGOPlanner实现

一、主要参考:

ZJU-FAST-Lab/ego-plannerhttps://github.com/ZJU-FAST-Lab/ego-planner【完结】从0制作自主空中机器人 | 开源 | 浙江大学Fast-Lab_哔哩哔哩_bilibilihttps://www.bilibili.com/video/BV1WZ4y167me/?spm_id_from=333.1387.favlist.content.click&vd_source=cc27dfcb640aa62a70874f5ec72a2143

二、硬件组成:

这里所用硬件设备:

1、OrangePi 5 MAX/ Inter NUC

2、Holybro Pixhawk 6C

3、Intel RealSense D435i Depth Camera

4、格式4s 2300mah 45C

5、HKSRC 2205-2450KV / T-Motor V2306-2400KV

6、HSKRC 45A / Formula 32 bit 45A

7、乾丰 51466 V2三叶五寸桨

=》备选方案:怪象35机架,银燕2004 2000kv,d90三叶桨,微空micoair743飞控,微空50a电调,4s或6s锂电池。

二、依赖源码安装:

1、安装 Fast-Drone-250 项目:

git clone https://github.com/ZJU-FAST-Lab/Fast-Drone-250 # 若无法 clone,可直接下载 ZIP 并解压 cd Fast-Drone-250/

2、realsense驱动安装:

sudo apt-key adv --keyserver keyserver.ubuntu.com --recv-key F6E65AC044F831AC80A06380C8B3A55A6F3EFCDE || sudo apt-key adv --keyserver hkp://keyserver.ubuntu.com:80 --recv-key F6E65AC044F831AC80A06380C8B3A55A6F3EFCDE 
sudo add-apt-repository "deb https://librealsense.intel.com/Debian/apt-repo $(lsb_release -cs) main" -u
sudo apt-get install librealsense2-dkms sudo apt-get install librealsense2-utils sudo apt-get install librealsense2-dev sudo apt-get install librealsense2-dbg

然后运行realsense-viewer进行测试一下

3、安装ceres与glog与ddyanmic-reconfigure

解压 3rd_party.zip 压缩包,进入glog文件夹打开终端

cd glog ./autogen.sh && ./configure && make && sudo make install
sudo apt-get install liblapack-dev libsuitesparse-dev libcxsparse3 libgflags-dev libgoogle-glog-dev libgtest-dev

进入ceres文件夹打开终端:

mkdir build cd build cmake .. sudo make -j4 sudo make install sudo apt-get install ros-noetic-ddynamic-reconfigure

4、编译项目,仿真测试:

cd ~/Fast-Drone-250 catkin_make source devel/setup.bash # 测试运行 roslaunch ego_planner single_run_in_sim.launch 

在Rviz仿真:

三、实测:

分别在树林车库环境实机测试=》

四、总结:

参考:规划框架 | EGO planner 规划算法流程与ROS仿真_egoplanner-ZEEKLOG博客https://blog.ZEEKLOG.net/m0_61750953/article/details/144130349?ops_request_misc=&request_id=&biz_id=102&utm_term=egoplanner&utm_medium=distribute.pc_search_result.none-task-blog-2~all~sobaiduweb~default-0-144130349.142^v102^control&spm=1018.2226.3001.4187

高飞老师组的px4ctrl理解-ZEEKLOG博客https://blog.ZEEKLOG.net/m0_50633073/article/details/134885408?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522839fe5c3649219f8bd9bb539e7c8fb02%2522%252C%2522scm%2522%253A%252220140713.130102334..%2522%257D&request_id=839fe5c3649219f8bd9bb539e7c8fb02&biz_id=0&utm_medium=distribute.pc_search_result.none-task-blog-2~all~top_click~default-2-134885408-null-null.142^v102^control&utm_term=px4ctrl&spm=1018.2226.3001.4187

Read more

揭秘MCP AI Copilot考试难点:3大核心技能让你一次通过

第一章:揭秘MCP AI Copilot考试的核心挑战 在准备MCP AI Copilot认证考试的过程中,考生普遍面临多重技术与实践层面的挑战。该考试不仅考察对AI辅助编程工具的理解深度,更强调在真实开发场景中高效运用Copilot的能力。掌握这些核心难点,是顺利通过考试的关键。 对上下文理解能力的高要求 MCP AI Copilot并非简单的代码补全工具,其核心在于对项目上下文的精准解析。考生需熟练编写具有明确语义的函数名、注释和结构化代码,以引导AI生成符合预期的逻辑。例如,在Go语言中合理使用注释可显著提升生成质量: // CalculateFibonacci 计算第n个斐波那契数,使用动态规划优化性能 func CalculateFibonacci(n int) int { if n <= 1 { return n } a, b := 0, 1 for i := 2; i <= n; i++ { a, b = b,

第二章-AIGC入门-小白也能看懂的AI图像生成指南:从原理到实战(5/36)

第二章-AIGC入门-小白也能看懂的AI图像生成指南:从原理到实战(5/36)

摘要:AI图像生成是基于深度学习的人工智能技术,能依据文本或图像输入生成新图像。其原理主要基于生成对抗网络(GAN)和变分自编码器(VAE),通过生成器和判别器的对抗训练(在 GAN 中),或编码器和解码器的协作(在 VAE 中),实现图像生成。AI图像生成在艺术创作、商业设计、影视游戏、日常生活等方面有广泛应用,但也面临伦理、版权、技术准确性等挑战。 一、AI 图像生成是什么 AI 图像生成,作为人工智能技术在数字创作领域的重要应用,正深刻地改变着我们生成和理解图像的方式。简单来说,AI 图像生成是利用人工智能算法,依据给定的输入(如文本描述、图像示例等),通过对大量数据的学习和分析,自动生成全新图像的技术。 从原理上讲,AI 图像生成技术建立在深度学习模型的基础之上,其中最为常用的是生成对抗网络(GAN)和变分自编码器(VAE) 。以生成对抗网络为例,它由生成器和判别器两个部分组成。生成器负责生成图像,判别器则用于判断生成的图像是否真实。两者相互对抗、

Ollama下载模型太慢?试试国内HuggingFace镜像+LLama-Factory组合

Ollama下载模型太慢?试试国内HuggingFace镜像+LLama-Factory组合 在本地跑一个大模型,第一步不是写代码、调参数,而是——等它下载完。 这听起来有点荒诞,却是许多中国开发者的真实日常。当你兴致勃勃地打开终端,输入 ollama run llama3:8b,满心期待地准备开启微调之旅时,现实却给你泼了一盆冷水:进度条纹丝不动,网络连接频繁中断,几个小时过去连基础权重都没拉下来。 问题出在哪?根源就在于——Ollama 默认从 HuggingFace 官方仓库拉取模型,而这个服务器远在海外。对于国内用户来说,这无异于“越洋取经”,不仅速度慢如龟爬,还常因网络波动导致失败重试,白白浪费时间和算力资源。 但其实,我们完全不必硬扛这条路。真正聪明的做法是:绕开公网瓶颈,借助国内镜像高速获取模型 + 使用 LLama-Factory 实现低门槛、高效率的本地微调。这套组合拳不仅能让你把“等待下载”的时间省下来喝杯咖啡,还能让7B甚至13B级别的模型在一张消费级显卡上顺利训练起来。 镜像加速:别再用裸连 HuggingFace

【AIGC行业前沿】2026年2月AIGC行业模型发布以及主要前沿资讯

目录 1. 阿里Qoder发布Qwen-Coder-Qoder 2. Kimi与南大发布SimpleSeg赋能模型像素感知 3. 字节研究团队发布ConceptMoE提升AI推理 4. 阶跃星辰发布并开源模型Step 3.5 Flash 5. 智谱发布并开源OCR模型GLM-OCR 6. xAI正式发布Grok Imagine 1.0视频模型 7. 优必选开源具身智能大模型Thinker 8. 通义千问发布开源编程模型Qwen3-Coder-Next 9. OpenAI宣布GPT-5.2系列模型提速40% 10. OpenBMB发布多模态模型MiniCPM-o 4.5 11. ACE Studio与StepFun联合发布开源音乐模型ACE-Step 1.5 12. Ai2发布轻量级开源编码模型SERA-14B 13. 上海AI实验室推出万亿参数多模态科学推理模型Intern-S1-Pro 14. Mistral AI开源40亿参数实时语音模型Voxtral Mini 4B Realtime 2602 15. 快手可灵发布可灵3.0 1