宇树机器人g1二次开发:建图,定位,导航手把手教程(四)导航仿真部分:建完图之后打开仿真导航

先补一下第三教程的四看路线这一块:终端2那里,可以先修改下面图片所示的文件为true,这样打开终端2的时候就可以打开设定好的rviz,就不用单独打开rviz。但是开始播放bag包之后还是要单独添加话题。

建成pcd之后可以查看pcd图:filename.pcd换成自己pcd的名字

pcl_viewer filename.pcd

额外说一句,有几种类型的图大家不要弄错了:

一、下载项目

# 克隆导航栈源码 cd ~/ws_loc/src git clone https://github.com/deepglint/ros_navigation_humanoid.git # 重命名并整理目录结构 mv ros_navigation_humanoid-master ros_navigation_humanoid

1.2、安装系统依赖

# 安装ROS导航相关包 sudo apt-get install libpcl-dev ros-noetic-navigation ros-noetic-tf ros-noetic-sbpl ros-noetic-visualization-msgs # 安装地图编辑工具 sudo apt-get install kolourpaint

1.3、下载PCD转PGM工具

# 进入工作空间源码目录 cd ~/ws_loc/src # 克隆PCD转栅格地图工具 git clone https://github.com/Hinson-A/pcd2pgm_package.git

二、编译与错误修复

2.1 首次编译尝试

cd ~/ws_loc catkin_make

2.2 解决编译错误

如果编译报错提示缺少include目录,执行:

# 创建缺失的目录 cd ~/ws_loc/src/ros_navigation_humanoid mkdir -p include # 重新编译 cd ~/ws_loc catkin_make

2.3 更新环境变量

source devel/setup.bash

三、地图文件准备与转换

3.1 复制地图文件

# 假设已有建好的点云地图 cp ~/ws_loc/maps/map_1.pcd ~/ws_loc/src/ros_navigation_humanoid/maps/

3.2 修改转换启动文件

编辑 ~/ws_loc/src/ros_navigation_humanoid/launch/conv_pcd2pgm.launch

<?xml version="1.0"?> <launch> <!-- 添加可自定义的地图名参数 --> <arg name="file_name" default="map" /> <arg name="file_directory" default="$(find ros_navigation_humanoid)/maps/" /> <node pkg="pcd2pgm" name="pcd2pgm" type="pcd2pgm" output="screen"> <!-- 使用私有参数语法 --> <param name="~file_name" value="$(arg file_name)" /> <param name="~file_directory" value="$(arg file_directory)" /> <param name="~map_topic_name" value="map" /> <!-- 转换参数配置 --> <param name="~thre_z_min" value="0.2" /> <param name="~thre_z_max" value="0.8" /> <param name="~flag_pass_through" value="0" /> <param name="~thre_radius" value="0.5" /> <param name="~thres_point_count" value="10" /> <param name="~map_resolution" value="0.05" /> </node> <!-- 启动RViz查看转换结果 --> <node pkg="rviz" name="rviz_sim" type="rviz" args="-d $(find ros_navigation_humanoid)/rviz/conv_pcd2pgm.rviz" output="screen"/> </launch>

3.3 执行PCD到PGM转换

# 转换指定名称的地图文件 roslaunch ros_navigation_humanoid conv_pcd2pgm.launch file_name:=map_1

3.4或者根据下面的步骤来将pcd转换到pgm

四、栅格地图编辑

4.1 使用KolourPaint编辑PGM

# 打开生成的PGM文件进行编辑 kolourpaint ~/ws_loc/src/ros_navigation_humanoid/maps/map_1.pgm

白的地方是能走的,黑的地方是不能走的,灰的地方是不确定的。


五、机器人模型展示

5.1 启动URDF模型显示

roslaunch ros_navigation_humanoid static_display.launch


六、导航配置修改(双足→轮式适配)

6.1 修改全局代价地图参数

roscd ros_navigation_humanoid/move_base_config nano global_costmap_params.yaml

修改内容:

# 将机器人基座坐标系从pelvis改为base_link robot_base_frame: base_link # 原为: pelvis

6.2 修改局部代价地图参数

nano local_costmap_params.yaml

修改内容:

robot_base_frame: base_link # 原为: pelvis

6.3 修改局部规划器参数

nano base_local_planner_params.yaml

修改内容:

# 启用全向移动(适用于轮式机器人) holonomic_robot: true # 原为: false

6.4 修改RViz仿真节点

roscd ros_navigation_humanoid/src nano rviz_sim.cpp

修改内容:

// 将TF子坐标系改为base_link map_trans.child_frame_id = "base_link"; // 原为: "pelvis"

七、重新编译与验证

7.1 重新编译修改后的代码

cd ~/ws_loc catkin_make

7.2 启动完整导航仿真

终端1 - 启动ROS核心:

cd ~/ws_loc roscore

终端2 - 启动RViz仿真:

cd ~/ws_loc roslaunch ros_navigation_humanoid rviz_sim.launch

终端3 - 发布静态坐标变换:

# 发布base_link到pelvis的静态TF(维持原有TF树结构) rosrun tf static_transform_publisher 0 0 0 0 0 0 base_link pelvis 100

这样就可以给导航点让机器人仿真导航过去了


八、回放rosbag验证机器人运动(可选)

8.1 修改bag播放启动文件

编辑 bag_play.launch,修改bag文件路径:

<param name="bag_file_path" value="/your/path/to/bagfile.bag" />

8.2 播放rosbag

roslaunch g1_ros1_nav bag_play.launch

九、步态规划配置(可选,保留双足功能)

9.1 下载步态规划相关包

cd ~/ws_loc/src # 下载人形机器人消息定义 git clone https://github.com/ahornung/humanoid_msgs.git # 下载人形机器人导航包 git clone https://github.com/ROBOTIS-GIT/humanoid_navigation.git

9.2 提取必要组件

# 只需要footstep_planner和gridmap_2d cp -r humanoid_navigation/footstep_planner . cp -r humanoid_navigation/gridmap_2d .

9.3 编译步态规划包

cd ~/ws_loc catkin build source devel/setup.bash

9.4 启动步态规划

roslaunch ros_navigation_humanoid foot_planner.launch

Read more

AI绘画低成本方案:没显卡别急,2块钱试效果

AI绘画低成本方案:没显卡别急,2块钱试效果 你是不是也遇到过这种情况?作为淘宝店主,想给自家商品拍点高级感十足的主图、详情页,结果一问代运营公司,单张AI生成图报价20元起步,做一套图下来几百块就没了。关键是——你又不是天天要用,花大价钱请人做图,实在不划算。 别急!现在有个超实用的新选择:花2块钱,租用1小时高端GPU服务器,自己动手生成AI商品图。成本直接从20元降到0.2元,省下90%以上!而且操作比你想的简单得多,哪怕你完全不懂技术,也能跟着步骤一步步搞定。 我最近帮几个朋友实测了这个方法,用ZEEKLOG星图平台提供的Stable Diffusion镜像,从部署到出图,全程不到15分钟。生成的商品图清晰、风格可控,还能批量制作不同背景和角度的效果图,完全可以满足日常上新需求。 这篇文章就是为你量身打造的“零基础AI绘画入门指南”。我会手把手带你: * 理解什么是AI绘画,它怎么帮你省钱 * 如何在没有独立显卡的情况下,快速使用高端GPU资源 * 用预置镜像一键启动Stable Diffusion服务 * 输入提示词(prompt)生成高质量商品图 * 调

Llama-3.2-3B部署实录:Ollama本地大模型从下载到生成仅需90秒

Llama-3.2-3B部署实录:Ollama本地大模型从下载到生成仅需90秒 想体验最新的大语言模型,但又担心复杂的部署流程和漫长的等待时间?今天,我要分享一个极其简单的方案:使用Ollama在本地部署Meta最新发布的Llama-3.2-3B模型。整个过程从下载模型到生成第一段文字,最快只需要90秒,而且完全免费,不需要任何复杂的配置。 Llama-3.2-3B是Meta推出的轻量级多语言大模型,虽然只有30亿参数,但在很多任务上的表现已经相当出色。更重要的是,它非常“亲民”,对普通电脑配置要求不高,通过Ollama这个工具,你可以像安装一个普通软件一样把它装到自己的电脑上,随时随地调用。 这篇文章,我将带你走一遍完整的部署流程,从零开始,手把手教你如何用最简单的方法,在自己的电脑上跑起这个强大的AI助手。 1. 准备工作:认识我们的工具和模型 在开始动手之前,我们先花一分钟了解一下今天要用到的两个核心:Ollama和Llama-3.2-3B模型。了解它们是什么,能帮你更好地理解后面的每一步操作。 1.1 Ollama:你的本地大模型管家 你可以把Ollama想象成

Whisper-large-v3保姆级教程:语音转文字so easy

Whisper-large-v3保姆级教程:语音转文字so easy 1. 引言 1.1 语音识别的实际价值 想象一下这样的场景:你需要整理一场多语言会议的录音,或者想把外语视频的字幕提取出来,又或者需要将语音笔记转为文字。传统方法要么费时费力,要么需要专业软件。现在,有了Whisper-large-v3,这些都能轻松搞定。 这个教程要介绍的镜像,基于OpenAI Whisper Large v3模型,能自动识别99种语言,支持音频上传和实时录音,还有Web界面让你点点鼠标就能用。无论你是开发者还是普通用户,都能快速上手。 1.2 教程能带给你什么 看完这篇教程,你将学会: * 怎么快速部署这个语音识别服务 * 怎么通过Web界面使用各种功能 * 怎么用代码调用API进行二次开发 * 遇到问题怎么解决 最重要的是,整个过程非常简单,不需要深厚的技术背景,跟着步骤做就行。 2. 环境准备与快速部署 2.1 硬件和系统要求 想要顺畅运行这个服务,你的设备最好满足这些条件: 资源类型推荐配置最低要求GPUNVIDIA RTX 4090

Stable Diffusion 3.5 FP8量化版安装全攻略:CUDA+PyTorch环境从0搭建

Stable Diffusion 3.5 FP8量化版部署实战:从CUDA环境搭建到高效推理 在生成式AI的浪潮中,Stable Diffusion 3.5 的发布再次刷新了文生图模型的质量上限。更强的提示理解能力、更合理的构图逻辑和更精细的纹理还原,让创作者们跃跃欲试。但随之而来的,是动辄12GB以上的显存占用和数秒级的单图生成延迟——这对大多数消费级GPU用户而言,几乎是一道无法逾越的门槛。 幸运的是,FP8低精度量化技术的引入,为这一困局提供了优雅的解决方案。通过将模型权重与激活值压缩至8位浮点表示,SD3.5 FP8版本在几乎不损失视觉质量的前提下,实现了显存占用下降35%、推理速度提升近50%的惊人表现。这意味着你手中的RTX 4080或4090,终于可以流畅运行1024×1024分辨率的高阶生成任务。 但这背后有一个关键前提:你的系统必须构建一个精准匹配的CUDA + PyTorch运行时环境。任何版本错配都可能导致“明明有卡却跑不动”的尴尬局面。本文将带你从零开始,一步步搭建出稳定支持SD3.5-FP8的本地推理平台,并深入剖析其底层机制与优化逻辑。 现代深度学习