无人机避障——Mid360+Fast-lio感知建图+Ego-planner运动规划(胎教级教程)

无人机避障——Mid360+Fast-lio感知建图+Ego-planner运动规划(胎教级教程)

电脑配置:Xavier-nx、ubuntu 18.04、ros melodic

激光雷达:Livox_Mid-360

结果展示:左边Mid360+Fast-lio感知建图,右边Ego-planner运动规划

1、读取雷达数据并显示

无人机避障——感知篇(采用Livox-Mid360激光雷达获取点云数据显示)-ZEEKLOG博客

看看雷达数据话题imu以及lidar两个话题 

2、读取雷达数据并复现fast-lio 

无人机避障——感知篇(采用Mid360复现Fast-lio)-ZEEKLOG博客

启动fast-lio,确保话题有输出 

 由于此处不需要建图,因此不打开rviz,launch文件如下修改:

<launch> <!-- Launch file for Livox MID360 LiDAR --> <arg name="rviz" default="true" /> <rosparam command="load" file="$(find fast_lio)/config/mid360.yaml" /> <param name="feature_extract_enable" type="bool" value="0"/> <!-- 100HZ的bag point_filter_num建议设置为1; 10HZ的bag建议设置为2或3 --> <param name="point_filter_num" type="int" value="3"/> <param name="max_iteration" type="int" value="3" /> <param name="filter_size_surf" type="double" value="0.5" /> <param name="filter_size_map" type="double" value="0.5" /> <param name="cube_side_length" type="double" value="1000" /> <param name="runtime_pos_log_enable" type="bool" value="0" /> <node pkg="fast_lio" type="fastlio_mapping" name="laserMapping" output="screen" /> <!-- <group if="$(arg rviz)"> <node launch-prefix="nice" pkg="rviz" type="rviz" name="rviz" args="-d $(find fast_lio)/rviz_cfg/loam_livox.rviz" /> </group> --> </launch> 

然后运行:

roslaunch fast_lio mapping_mid360.launch

看一下话题:

rostopic list

 看下/Odometry与/cloud_registe

Read more

Being-H0.5:扩展以人为中心的机器人学习实现跨具身泛化

Being-H0.5:扩展以人为中心的机器人学习实现跨具身泛化

26年1月来自的BeingBeyond团队的论文“Being-H0.5: Scaling Human-Centric Robot Learning for Cross-Embodiment Generalization”。 Being-H0.5 是一个基础视觉-语言-动作 (VLA) 模型,旨在实现跨不同机器人平台的鲁棒跨具身泛化。现有的 VLA 模型通常难以应对形态异质性和数据稀缺性,而提出的一种以人为中心学习范式,将人类交互痕迹视为物理交互的通用“母语”。为了支持这一范式,推出 UniHand-2.0,这是迄今为止规模最大的具身预训练方案,包含来自 30 种不同机器人具身的超过 35,000 小时多模态数据。该方法引入一个统一动作空间,将异构的机器人控制映射到语义对齐槽中,使低资源机器人能够从人类数据和高资源平台中引导技能。基于这一以人为中心的基础,设计一个统一的序列建模和多任务预训练范式,以连接人类演示和机器人执行。在架构上,Being-H0.5 采用混合 Transformer (MoT)设计,并引入一种混合流 (MoF) 框架,将共享的运动基元与特定于具身的专家解耦。

Reachy Mini:重新定义桌面机器人的开源硬件革命

Reachy Mini:重新定义桌面机器人的开源硬件革命 【免费下载链接】reachy_miniReachy Mini's SDK 项目地址: https://gitcode.com/GitHub_Trending/re/reachy_mini 在当今机器人技术快速发展的时代,桌面机器人作为开源硬件的重要分支,正以其独特的魅力吸引着全球开发者的目光。Reachy Mini作为这一领域的杰出代表,不仅展示了精密机械设计的极致追求,更为机器人爱好者提供了前所未有的学习与实践平台。 设计哲学:模块化与可访问性的完美平衡 让我们深入理解Reachy Mini背后的设计理念。与传统机器人设计不同,它采用了分层模块化架构,将复杂的机械系统分解为可独立制造和替换的功能单元。这种设计哲学的核心在于:让每个组件都具备明确的边界和标准化的接口,使得维护、升级和定制变得异常简单。 核心设计原则: * 教育导向:每个设计决策都考虑到学习价值 * 制造友好:所有部件都针对3D打印工艺优化 * 成本控制:通过开源设计降低准入门槛 * 扩展灵活:预留充分的接口用于功能扩展 核心子系统解

【2025最新高维多目标优化】基于城市场景下无人机三维路径规划的导航变量的多目标粒子群优化算法NMOPSO研究(Matlab代码实现)

💥💥💞💞欢迎来到本博客❤️❤️💥💥 🏆博主优势:🌞🌞🌞博客内容尽量做到思维缜密,逻辑清晰,为了方便读者。 ⛳️座右铭:行百里者,半于九十。 📋📋📋本文内容如下:🎁🎁🎁  ⛳️赠与读者 👨‍💻做科研,涉及到一个深在的思想系统,需要科研者逻辑缜密,踏实认真,但是不能只是努力,很多时候借力比努力更重要,然后还要有仰望星空的创新点和启发点。建议读者按目录次序逐一浏览,免得骤然跌入幽暗的迷宫找不到来时的路,它不足为你揭示全部问题的答案,但若能解答你胸中升起的一朵朵疑云,也未尝不会酿成晚霞斑斓的别一番景致,万一它给你带来了一场精神世界的苦雨,那就借机洗刷一下原来存放在那儿的“躺平”上的尘埃吧。      或许,雨过云收,神驰的天地更清朗.......🔎🔎🔎 💥1 概述 基于城市场景下无人机三维路径规划的导航变量的多目标粒子群优化算法(NMOPSO)研究 摘要 随着无人机应用场景的复杂化,城市场景下的三维路径规划需同时优化路径长度、飞行时间、威胁规避、能耗等多个相互冲突的目标。

Cameralink 图像输出和采集时序,针对FPGA开发

Cameralink 图像输出和采集时序,针对FPGA开发

Cameralink使用接口芯片进行开发的时候,例如国产芯片GM8283、GM8284,GM8284等等。都可以支持宽温85Mhz以上。老外的芯片:例如DS90CR285. DS90CR2856 ,DS90CR287.DS90CR288.   精典的Cameralink接口芯片。              那么FPGA接这些芯片的时候,给的时序可以参考Cameralink标准定义进行。下面进行一些举例说明。 (1)mono8, 8Tap 黑白图像              该模式下,一个时钟输出8个x方向的相邻像素,占用A、B、C、D、E、F、G、H共8个通道,A通道输出tap1,B通道输出tap2,C通道输出tap3,D通道输出tap4,E通道输出tap5,F通道输出tap6,G通道输出tap7,H通道输出tap8,如下图所示。 具体时序图,如下所示。              图像分辨率为m行和n列,那么一个FVAL信号包括m个LVAL信号,一个LVAL信号包括n/8个CLOCK时钟。 数据输出的有效期或者无效期,时钟信号CLOCK一直有效,时钟