在NVIDIA Jetson上实现端到端机器人学习:HuggingFace LeRobot实战指南

在NVIDIA Jetson上实现端到端机器人学习:HuggingFace LeRobot实战指南

在NVIDIA Jetson上实现端到端机器人学习:HuggingFace LeRobot实战指南

在这里插入图片描述

引言

让我们一起在NVIDIA Jetson上运行HuggingFace的LeRobot,训练基于Transformer的动作扩散策略和ACT策略。这些模型从视觉输入和先前的轨迹(通常在遥操作或模拟中收集)中学习预测特定任务的动作。

本教程将详细介绍如何在Jetson设备上为真实世界的机器人(以低成本的Koch v1.1为例)设置完整的端到端学习流程,从硬件配置、数据收集到模型训练和评估。

环境与硬件要求

所需设备

  1. Jetson设备
    • Jetson AGX Orin (64GB)
    • Jetson AGX Orin (32GB)
    • Jetson Orin NX (16GB)
    • Jetson Orin Nano (8GB) ⚠️ (内存可能受限)
  2. JetPack版本
    • JetPack 6 GA (L4T r36.3)
    • JetPack 6.1 (L4T r36.4)
  3. 存储:强烈推荐使用NVMe SSD
    • lerobot容器镜像需要16.5GB
    • 模型和数据集需要>2GB

基础设置:克隆并设置jetson-containers

# 克隆仓库git clone https://github.com/dusty-nv/jetson-containers # 运行安装脚本bash jetson-containers/install.sh 

真实机器人工作流程:容器启动前

本节将指导您在Jetson上完成LeRobot官方示例《真实世界机器人入门》的全部流程。

💡 提示: 建议在显示器连接模式下操作Jetson。lerobot设计用于显示摄像头视图窗口并在捕获数据集时播放TTS音频,因此连接显示器和扬声器会更方便。

a. 检查jetson-containers目录位置

由于lerobot工作流会产生大量数据,请确保您的jetson-containers目录位于SSD上,而不是eMMC或microSD卡。

# 如果目录位置不正确,使用rsync迁移rsync -aHAX /home/jetson/jetson-containers/ /ssd/jetson-containers/ # 重新运行安装程序bash /ssd/jetson-containers/install.sh 

b. 在主机上创建lerobot目录

为了使数据持久化,我们将在主机上创建lerobot目录并挂载到容器中。

# 进入jetson-containers目录cd jetson-containers # 克隆lerobot目录到data文件夹下 ./packages/robots/lerobot/clone_lerobot_dir_under_data.sh # 复制覆盖文件 ./packages/robots/lerobot/copy_overlay_files_in_data_lerobot.sh 

c. PulseAudio音频设置

LeRobot的数据捕获流程使用Speech Dispatcher通过espeak TTS提供音频提示。我们需要配置PulseAudio以允许root用户访问socket文件。

重启PulseAudio服务:

pulseaudio --kill pulseaudio --start 

找到加载module-native-protocol-unix的部分,并添加auth-anonymous=1

### Load several protocols .ifexists module-esound-protocol-unix.so load-module module-esound-protocol-unix auth-anonymous=1 .endif 

编辑/etc/pulse/default.pa

sudovi /etc/pulse/default.pa 

d. 为ACM设备设置udev规则

为了让程序能以唯一的名称找到leader和follower机械臂,我们设置udev规则。

  • /dev/ttyACM_kochleader: Leader arm
  • /dev/ttyACM_kochfollower: Follower arm

对follower臂重复此过程,然后将规则文件复制到/etc/udev/rules.d/并重启Jetson。

sudocp ./99-usb-serial.rules /etc/udev/rules.d/ sudoreboot

编辑99-usb-serial.rules文件,填入序列号:

SUBSYSTEM=="tty", ATTRS{idVendor}=="2f5d", ATTRS{idProduct}=="2202", ATTRS{serial}=="BA98C8C350304A46462E3120FF121B06", SYMLINK+="ttyACM_kochleader" SUBSYSTEM=="tty", ATTRS{idVendor}=="2f5d", ATTRS{idProduct}=="2202", ATTRS{serial}=="<YOUR_FOLLOWER_ARM_SERIAL>", SYMLINK+="ttyACM_kochfollower" 

仅连接leader臂,记录其序列号:

ll /dev/serial/by-id/ # 输出示例: lrwxrwxrwx 1 root root 13 Sep 24 13:07 usb-ROBOTIS_OpenRB-150_BA98C8C350304A46462E3120FF121B06-if00 -> ../../ttyACM1

e. 增加交换文件大小

为了防止在训练ACT模型时内存不足,建议增加交换空间。

# 增加8GB交换空间 swapoff -a -v sudorm /swfile sudo systemctl disable nvzramconfig sudo fallocate -l 8G /ssd/8GB.swap sudochmod600 /ssd/8GB.swap sudomkswap /ssd/8GB.swap sudosh -c 'echo "/ssd/8GB.swap swap swap defaults 0 0" >> /etc/fstab'sudoreboot

f. 启动lerobot容器

# 进入jetson-containers目录cd jetson-containers # 启动容器,并将主机上的lerobot目录挂载进去 ./run.sh \ -v ${PWD}/data/lerobot/:/opt/lerobot/ \$(./autotag lerobot)

真实机器人工作流程:容器内操作

💡 JupyterLab提示: lerobot容器启动后,JupyterLab服务也会启动。您可以通过http://localhost:8888/访问,其中包含与官方教程各部分对应的notebooks。

1. 组装Koch v1.1机械臂

您可以从ROBOTIS订购Koch v1.1套件(注意:不包含3D打印部件)。

2. 配置电机、校准机械臂、进行遥操作

请跟随Jupyter notebook 7-2_real-robot_configure-motors.ipynb中的步骤操作。

3. 记录并可视化您的数据集

💡 Bash历史提示: 在容器的控制台中,您可以按Up键滚动浏览预注册的常用命令。
# 登录wandb wandb login # 设置HuggingFace用户名exportHF_USER=<your_username># 运行数据记录脚本 python lerobot/scripts/control_robot.py record \ --robot-path lerobot/configs/robot/koch.yaml \ --fps 30\ --root data \ --repo-id ${HF_USER}/koch_test_$(date +%Y%m%d_%H%M%S)\ --tags tutorial \ --warmup-time-s 5\ --episode-time-s 30\ --reset-time-s 30\ --num-episodes 10

4. 在您的数据上训练一个策略

# 登录wandb wandb login # 运行训练脚本DATA_DIR=data python lerobot/scripts/train.py \dataset_repo_id=${HF_USER}/koch_test \policy=act_koch_real \env=koch_real \ hydra.run.dir=outputs/train/act_koch_test \ hydra.job.name=act_koch_test \device=cuda \ wandb.enable=true 

5. 评估您的策略

# 运行评估脚本,-p参数指向训练好的模型 python lerobot/scripts/control_robot.py record \ --robot-path lerobot/configs/robot/koch.yaml \ --fps 30\ --root data \ --repo-id ${HF_USER}/eval_koch_test_01 \ --tags tutorial eval\ --warmup-time-s 5\ --episode-time-s 30\ --reset-time-s 30\ --num-episodes 10\ -p outputs/train/act_koch_test/checkpoints/last/pretrained_model \ --run-compute-stats 0# 可视化评估结果 python lerobot/scripts/visualize_dataset.py \ --root data \ --repo-id ${HF_USER}/eval_koch_test 

基础演练(无需真实机器人)

可视化数据集

LeRobot使用rerun.io进行可视化。

# 在主机上安装并运行rerun pip3 install rerun-sdk rerun # 在容器中运行可视化脚本 jetson-containers run -w /opt/lerobot $(autotag lerobot)\ python3 lerobot/scripts/visualize_dataset.py \ --repo-id lerobot/pusht \ --episode-index 0

评估预训练的扩散策略

此命令将下载并在PushT环境上运行一个预训练的扩散模型。

jetson-containers run -w /opt/lerobot $(autotag lerobot)\ python3 lerobot/scripts/eval.py \ -p lerobot/diffusion_pusht \ eval.n_episodes=10\ eval.batch_size=10

训练您自己的ACT策略

接下来,在Aloha操作环境上训练ACT策略。

jetson-containers run -w /opt/lerobot $(autotag lerobot)\ python3 lerobot/scripts/train.py \policy=act \env=aloha \ env.task=AlohaInsertion-v0 \dataset_repo_id=lerobot/aloha_sim_insertion_human 

结论

本教程展示了在NVIDIA Jetson上使用LeRobot进行端到端机器人学习的完整流程。从硬件设置到数据收集、训练和评估,开发者可以利用Jetson强大的计算能力,在边缘设备上快速迭代和部署机器人学习模型。无论是使用低成本的Koch v1.1进行真实世界实验,还是在模拟环境中进行快速验证,LeRobot都提供了一套强大而灵活的工具。

Read more

【AIGC】ChatGPT 记忆功能揭秘:使用与管理的全方位指南

【AIGC】ChatGPT 记忆功能揭秘:使用与管理的全方位指南

博客主页: [小ᶻ☡꙳ᵃⁱᵍᶜ꙳]本文专栏: AIGC |ChatGPT 文章目录 * 💯前言 * 💯记忆功能的概念与作用 * 概念解析 * 作用详述 * 总结 * 💯记忆功能的开启与关闭 * 开启记忆功能 * 关闭记忆功能 * 关闭记忆功能的影响 * 注意事项 * 总结 * 💯查看与管理记忆 * 查看已保存的记忆: * 删除特定记忆 * 删除全部记忆 * 记忆的隐私保护 * 总结 * 💯记忆功能的隐私保护 * 用户控制权 * 安全与隐私保障 * 隐私政策的透明度 * 后端操作的透明度 * 总结 * 💯记忆功能与GPTs的关系 * 当前状态 * 拓展理解 * 未来展望 * 潜在影响 * 隐私与安全考虑 * 总结 * 💯记忆功能的训练应用 * 记忆数据的训练用途 * 行为模式识别 * 记忆功能的训练影响 * 用户选择与数据使用 * 长期影响和道德考量 * 总结 *

轻松内网部署:llama.cpp量化大模型运行指南!

轻松内网部署:llama.cpp量化大模型运行指南!

跑量化模型,LLama.cpp 还是方便,用 C/C++ 实现,性能很高,还支持的 CPU+GPU 做量化模型推理,命令行参数很精细,跑 GGUF 很方便。本文就详细介绍安装、运行全过程,中间踩坑无数,希望对大家有所帮助。 一、什么是 llama.cpp?为什么它如此重要? llama.cpp 的核心思想是让大模型运行在普通人的消费级硬件上。它通过以下关键技术实现了这一目标: * C/C++ 实现:没有复杂的 Python 依赖,编译后即是原生可执行文件,性能极高。 * 模型量化 (Quantization):将模型权重从传统的 32 位或 16 位浮点数,压缩成更小的整数(如 4 位、5

万字长文带你梳理Llama开源家族:从Llama-1到Llama-3,看这一篇就够了!

万字长文带你梳理Llama开源家族:从Llama-1到Llama-3,看这一篇就够了!

在AI领域,大模型的发展正以前所未有的速度推进技术的边界。 北京时间4月19日凌晨,Meta在官网上官宣了Llama-3,作为继Llama-1、Llama-2和Code-Llama之后的第三代模型,Llama-3在多个基准测试中实现了全面领先,性能优于业界同类最先进的模型。 纵观Llama系列模型,从版本1到3,展示了大规模预训练语言模型的演进及其在实际应用中的显著潜力。这些模型不仅在技术上不断刷新纪录,更在商业和学术界产生了深远的影响。因此,对Llama模型不同版本之间的系统对比,不仅可以揭示技术进步的具体细节,也能帮助我们理解这些高级模型如何解决现实世界的复杂问题。 1、Llama进化史 本节将对每个版本的Llama模型进行简要介绍,包括它们发布的时间和主要特点。 1.1 Llama-1 系列 Llama-1 [1]是Meta在2023年2月发布的大语言模型,是当时性能非常出色的开源模型之一,有7B、13B、30B和65B四个参数量版本。Llama-1各个参数量版本都在超过1T token的语料上进行了预训训练,其中,最大的65B参数的模型在2,048张A100 80

AIGC - Raphael AI:全球首个无限制免费 AI 图片生成器

AIGC - Raphael AI:全球首个无限制免费 AI 图片生成器

文章目录 * 引言 * 一、Raphael AI 是什么? * 二、核心引擎:Flux.1-Dev 与 Flux Kontext * 1. Flux.1-Dev:极速与精细的结合 * 2. Flux Kontext:精确的语义理解 * 三、主要功能一览 * 1. 零成本创作 * 2. 多风格引擎 * 3. 高级文本理解 * 4. 极速生成 * 5. 隐私保护 * 四、实测体验与使用方式 * 五、与其他 AI 绘图平台的对比 * 六、未来发展与生态计划 * 七、总结:AI 创意的平权时代 引言 在生成式 AI 技术飞速发展的时代,图像生成的门槛正在被彻底打破。