在NVIDIA Jetson上实现端到端机器人学习:HuggingFace LeRobot实战指南

在NVIDIA Jetson上实现端到端机器人学习:HuggingFace LeRobot实战指南

在NVIDIA Jetson上实现端到端机器人学习:HuggingFace LeRobot实战指南

在这里插入图片描述

引言

让我们一起在NVIDIA Jetson上运行HuggingFace的LeRobot,训练基于Transformer的动作扩散策略和ACT策略。这些模型从视觉输入和先前的轨迹(通常在遥操作或模拟中收集)中学习预测特定任务的动作。

本教程将详细介绍如何在Jetson设备上为真实世界的机器人(以低成本的Koch v1.1为例)设置完整的端到端学习流程,从硬件配置、数据收集到模型训练和评估。

环境与硬件要求

所需设备

  1. Jetson设备
    • Jetson AGX Orin (64GB)
    • Jetson AGX Orin (32GB)
    • Jetson Orin NX (16GB)
    • Jetson Orin Nano (8GB) ⚠️ (内存可能受限)
  2. JetPack版本
    • JetPack 6 GA (L4T r36.3)
    • JetPack 6.1 (L4T r36.4)
  3. 存储:强烈推荐使用NVMe SSD
    • lerobot容器镜像需要16.5GB
    • 模型和数据集需要>2GB

基础设置:克隆并设置jetson-containers

# 克隆仓库git clone https://github.com/dusty-nv/jetson-containers # 运行安装脚本bash jetson-containers/install.sh 

真实机器人工作流程:容器启动前

本节将指导您在Jetson上完成LeRobot官方示例《真实世界机器人入门》的全部流程。

💡 提示: 建议在显示器连接模式下操作Jetson。lerobot设计用于显示摄像头视图窗口并在捕获数据集时播放TTS音频,因此连接显示器和扬声器会更方便。

a. 检查jetson-containers目录位置

由于lerobot工作流会产生大量数据,请确保您的jetson-containers目录位于SSD上,而不是eMMC或microSD卡。

# 如果目录位置不正确,使用rsync迁移rsync -aHAX /home/jetson/jetson-containers/ /ssd/jetson-containers/ # 重新运行安装程序bash /ssd/jetson-containers/install.sh 

b. 在主机上创建lerobot目录

为了使数据持久化,我们将在主机上创建lerobot目录并挂载到容器中。

# 进入jetson-containers目录cd jetson-containers # 克隆lerobot目录到data文件夹下 ./packages/robots/lerobot/clone_lerobot_dir_under_data.sh # 复制覆盖文件 ./packages/robots/lerobot/copy_overlay_files_in_data_lerobot.sh 

c. PulseAudio音频设置

LeRobot的数据捕获流程使用Speech Dispatcher通过espeak TTS提供音频提示。我们需要配置PulseAudio以允许root用户访问socket文件。

重启PulseAudio服务:

pulseaudio --kill pulseaudio --start 

找到加载module-native-protocol-unix的部分,并添加auth-anonymous=1

### Load several protocols .ifexists module-esound-protocol-unix.so load-module module-esound-protocol-unix auth-anonymous=1 .endif 

编辑/etc/pulse/default.pa

sudovi /etc/pulse/default.pa 

d. 为ACM设备设置udev规则

为了让程序能以唯一的名称找到leader和follower机械臂,我们设置udev规则。

  • /dev/ttyACM_kochleader: Leader arm
  • /dev/ttyACM_kochfollower: Follower arm

对follower臂重复此过程,然后将规则文件复制到/etc/udev/rules.d/并重启Jetson。

sudocp ./99-usb-serial.rules /etc/udev/rules.d/ sudoreboot

编辑99-usb-serial.rules文件,填入序列号:

SUBSYSTEM=="tty", ATTRS{idVendor}=="2f5d", ATTRS{idProduct}=="2202", ATTRS{serial}=="BA98C8C350304A46462E3120FF121B06", SYMLINK+="ttyACM_kochleader" SUBSYSTEM=="tty", ATTRS{idVendor}=="2f5d", ATTRS{idProduct}=="2202", ATTRS{serial}=="<YOUR_FOLLOWER_ARM_SERIAL>", SYMLINK+="ttyACM_kochfollower" 

仅连接leader臂,记录其序列号:

ll /dev/serial/by-id/ # 输出示例: lrwxrwxrwx 1 root root 13 Sep 24 13:07 usb-ROBOTIS_OpenRB-150_BA98C8C350304A46462E3120FF121B06-if00 -> ../../ttyACM1

e. 增加交换文件大小

为了防止在训练ACT模型时内存不足,建议增加交换空间。

# 增加8GB交换空间 swapoff -a -v sudorm /swfile sudo systemctl disable nvzramconfig sudo fallocate -l 8G /ssd/8GB.swap sudochmod600 /ssd/8GB.swap sudomkswap /ssd/8GB.swap sudosh -c 'echo "/ssd/8GB.swap swap swap defaults 0 0" >> /etc/fstab'sudoreboot

f. 启动lerobot容器

# 进入jetson-containers目录cd jetson-containers # 启动容器,并将主机上的lerobot目录挂载进去 ./run.sh \ -v ${PWD}/data/lerobot/:/opt/lerobot/ \$(./autotag lerobot)

真实机器人工作流程:容器内操作

💡 JupyterLab提示: lerobot容器启动后,JupyterLab服务也会启动。您可以通过http://localhost:8888/访问,其中包含与官方教程各部分对应的notebooks。

1. 组装Koch v1.1机械臂

您可以从ROBOTIS订购Koch v1.1套件(注意:不包含3D打印部件)。

2. 配置电机、校准机械臂、进行遥操作

请跟随Jupyter notebook 7-2_real-robot_configure-motors.ipynb中的步骤操作。

3. 记录并可视化您的数据集

💡 Bash历史提示: 在容器的控制台中,您可以按Up键滚动浏览预注册的常用命令。
# 登录wandb wandb login # 设置HuggingFace用户名exportHF_USER=<your_username># 运行数据记录脚本 python lerobot/scripts/control_robot.py record \ --robot-path lerobot/configs/robot/koch.yaml \ --fps 30\ --root data \ --repo-id ${HF_USER}/koch_test_$(date +%Y%m%d_%H%M%S)\ --tags tutorial \ --warmup-time-s 5\ --episode-time-s 30\ --reset-time-s 30\ --num-episodes 10

4. 在您的数据上训练一个策略

# 登录wandb wandb login # 运行训练脚本DATA_DIR=data python lerobot/scripts/train.py \dataset_repo_id=${HF_USER}/koch_test \policy=act_koch_real \env=koch_real \ hydra.run.dir=outputs/train/act_koch_test \ hydra.job.name=act_koch_test \device=cuda \ wandb.enable=true 

5. 评估您的策略

# 运行评估脚本,-p参数指向训练好的模型 python lerobot/scripts/control_robot.py record \ --robot-path lerobot/configs/robot/koch.yaml \ --fps 30\ --root data \ --repo-id ${HF_USER}/eval_koch_test_01 \ --tags tutorial eval\ --warmup-time-s 5\ --episode-time-s 30\ --reset-time-s 30\ --num-episodes 10\ -p outputs/train/act_koch_test/checkpoints/last/pretrained_model \ --run-compute-stats 0# 可视化评估结果 python lerobot/scripts/visualize_dataset.py \ --root data \ --repo-id ${HF_USER}/eval_koch_test 

基础演练(无需真实机器人)

可视化数据集

LeRobot使用rerun.io进行可视化。

# 在主机上安装并运行rerun pip3 install rerun-sdk rerun # 在容器中运行可视化脚本 jetson-containers run -w /opt/lerobot $(autotag lerobot)\ python3 lerobot/scripts/visualize_dataset.py \ --repo-id lerobot/pusht \ --episode-index 0

评估预训练的扩散策略

此命令将下载并在PushT环境上运行一个预训练的扩散模型。

jetson-containers run -w /opt/lerobot $(autotag lerobot)\ python3 lerobot/scripts/eval.py \ -p lerobot/diffusion_pusht \ eval.n_episodes=10\ eval.batch_size=10

训练您自己的ACT策略

接下来,在Aloha操作环境上训练ACT策略。

jetson-containers run -w /opt/lerobot $(autotag lerobot)\ python3 lerobot/scripts/train.py \policy=act \env=aloha \ env.task=AlohaInsertion-v0 \dataset_repo_id=lerobot/aloha_sim_insertion_human 

结论

本教程展示了在NVIDIA Jetson上使用LeRobot进行端到端机器人学习的完整流程。从硬件设置到数据收集、训练和评估,开发者可以利用Jetson强大的计算能力,在边缘设备上快速迭代和部署机器人学习模型。无论是使用低成本的Koch v1.1进行真实世界实验,还是在模拟环境中进行快速验证,LeRobot都提供了一套强大而灵活的工具。

Read more

你还在为伺服驱动器 FPGA架构苦恼吗,本方案FPGA代码实现电流环 速度环 位置环 SVPW...

你还在为伺服驱动器 FPGA架构苦恼吗,本方案FPGA代码实现电流环 速度环 位置环 SVPW...

你还在为伺服驱动器 FPGA架构苦恼吗,本方案FPGA代码实现电流环 速度环 位置环 SVPWM 坐标变换 测速 分频 滤波器等,程序方便移植不同的平台,具有很高的研究价值,你还在等什么 伺服驱动器的FPGA架构实现一直是自动化控制系统中的重要课题。无论是工业自动化、机器人控制,还是高端设备的伺服驱动,FPGA(现场可编程门阵列)因其并行处理能力和灵活的硬件配置,成为了实现高性能伺服控制的理想选择。 在伺服控制系统中,电流环、速度环和位置环是三个核心控制环。电流环负责调节电机的电流,确保输出力矩的精确性;速度环则根据电流环的输出,调节电机的速度;而位置环则控制电机的位置,确保系统能够准确地跟踪给定的轨迹。 为了实现这些控制环,我们采用FPGA架构,利用其并行处理能力,将电流环、速度环和位置环分别设计为独立的模块,每个模块通过FIFO(先进先出队列)进行数据交互,从而实现高效的实时控制。 电流环设计 电流环是伺服控制系统中最基本的控制环,负责调节电机的相电流,以满足给定的力矩需求。在FPGA中,电流环通常采用PI(比例积分)控制算法。以下是电流环的Verilog代码实现: m

机器人强化学习入门笔记(二)

四足机器人强化学习项目 - 完整介绍文档 一、项目总览 1.1 项目简介 本项目(链接)是一个基于强化学习(Reinforcement Learning, RL)的四足机器人控制训练系统,主要用于训练四足机器狗(如GO2、ANYmal等)在复杂地形上行走、翻越障碍物等任务。项目采用NVIDIA Isaac Gym作为物理仿真环境,使用**PPO(Proximal Policy Optimization)**算法进行策略训练,实现了从仿真到实物的迁移学习(Sim-to-Real Transfer)。 1.2 项目目标 * 主要任务:训练四足机器人在指定赛道上行走,使其能够翻越多种地形(包括梅花桩等复杂障碍) * 技术特点: * GPU加速的并行仿真环境 * 支持多种四足机器人模型(GO2、ANYmal、A1、Cassie等) * 完整的强化学习训练流程 * 支持自定义奖励函数和观测空间 * 支持地形随机化和域随机化(Domain

Dify工作流集成TTS:低代码实现语音输出

Dify工作流集成TTS:低代码实现语音输出 📌 背景与需求:让AI应用“开口说话” 在构建智能对话系统、虚拟助手或教育类AI产品时,语音输出能力是提升用户体验的关键一环。传统的语音合成(Text-to-Speech, TTS)方案往往依赖复杂的模型部署和高门槛的开发流程,难以快速集成到低代码平台中。 Dify作为一款领先的低代码大模型应用开发平台,支持通过可视化工作流编排AI能力。然而,默认组件并未内置TTS功能。本文将介绍如何通过集成一个稳定、高质量的中文多情感TTS服务——基于ModelScope的Sambert-Hifigan模型,为Dify工作流注入“声音”,实现从文本生成到语音播报的完整闭环。 🎯 核心目标: 在不编写复杂后端代码的前提下,将成熟的TTS能力以API形式接入Dify,完成“用户输入 → 文本处理 → 语音合成 → 播放反馈”的自动化流程。 🎙️ Sambert-HifiGan 中文多情感语音合成服务详解 技术选型依据:为何选择 Sambert-Hifigan? 在众多开源TTS模型中,ModelScope平台提供的 Sambert-H

2025 Telegram 最新免费社工库机器人(LetsTG可[特殊字符])搭建指南(含 Python 脚本)

🔍 为什么会出现这么多“社工库机器人”? 在 Telegram 里,很多人希望通过机器人来查询各种信息。所谓的“社工库 BOT”,本质就是:接收用户输入(查询关键字)去数据库检索(是否有匹配结果)返回查询结果(文本/链接/截图等) 🛠 技术原理 核心流程分 3 步:用户发消息给机器人机器人在数据库里查找匹配项将结果返回用户 / 审核群 可以用到的技术栈:PythonTelethon(Telegram API)SQLite(轻量数据库) 💻 Python 脚本示例 下面是一份可运行的最简版脚本:   📌 使用效果用户输入:学习机器人返回:优质群组:https://t.me/lets_study用户输入:聊天机器人返回:中文群搜索机器人:@letstgbot 这样一来,读者就能理解“社工库机器人”的工作原理,其实和普通的搜索机器人一模一样。