【实战源码】TeleGrip:基于VR的机械臂遥操作系统全流程解析

【实战源码】TeleGrip:基于VR的机械臂遥操作系统全流程解析

摘要

本文对开源项目 TeleGrip 的架构与源码进行了剖析。该系统基于 LeRobot 框架,通过 VR 端位姿采集—WebSocket 通信—控制循环解算—机械臂执行 的流程,实现虚拟与物理空间的实时映射。前端采用 A-Frame 进行手柄姿态获取与可视化,后端以 Python 实现命令队列、插值与逆运动学计算,并同步驱动 PyBullet 仿真与 SO100 实体机械臂。该框架具有低延迟、高扩展性等特点,可用于 VR 遥操作、具身智能及多模态交互研究。

前言:项目背景与价值

想象一下你戴上 VR 头显,用手柄抓取虚拟物体,现实中的机械臂同步完成同样的动作——这就是 TeleGrip 的核心。
本文将带你从源码角度理解它是如何实现“虚拟到现实”的信号映射与控制闭环的。

在这里插入图片描述


GitHub链接:https://github.com/DipFlip/telegrip

对应deepwiki:https://deepwiki.com/DipFlip/telegrip

一、环境配置与运行指南

关于该部分在项目的 GitHub 界面已经写的非常详细,此处仅作简略总结,环境配置如下表所示:

项目类别内容说明示例命令 / 备注
硬件要求机器人硬件一台或两台 SO100 机械臂(USB 串口连接)
软件环境Python 环境Python ≥ 3.8,并安装相关依赖包
VR 设备(可选)VR 头显Meta Quest / 其他支持 WebXR 的设备(无需额外安装应用)
基础依赖项目安装 LeRobot(基础功能库)网址:https://github.com/huggingface/lerobot.git
TeleGrip 主程序安装 TeleGrip(VR 控制端)网址:https://github.com/DipFlip/telegrip.git
证书配置SSL 证书自动生成若未检测到 cert.pemkey.pem,系统会自动创建
手动生成证书(可选)使用 OpenSSL 生成自签名证书openssl req -x509 -newkey rsa:2048 -keyout key.pem -out cert.pem -sha256 -days 365 -nodes -subj "/C=US/ST=Test/L=Test/O=Test/OU=Test/CN=localhost
运行验证启动 TeleGrip 测试服务在 TeleGrip 根目录运行示例脚本,确认 VR 与机械臂通信正常

项目是在 Lerobot 的基础上进行的二次开发,使用硬件为典型 6 自由度入门机械臂 SO100,在各个平台均有销售,一套主从臂价格在1400 左右,但注意项目视频中为两从臂;

VR 头显为低成本的 Meta Quest,主要用于采集手柄的位姿信息,注意此处采集采用的是 VR 端的浏览器插件 A-FRAME,对硬件本身要求不高,如无特别需要,最小内存的 Meta Quest 3S 完全够用,其价格在 2000 左右;

项目配置环境时首先要配置 SO100 机械臂的驱动,表中已经给出项目地址,其中包含详细的配置流程,包括 conda 建立新环境、pip 一键安装等,详细如 conda 网络配置等不做概述,此处要注意的点为,在执行完 pip install -e . 后,要再运行 pip install 'lerobot[feetech]',才能正常运行项目;还有关于 Weights and Biases 的注册等等,不在此处做过多概述;安装完成后可执行example 1 进行验证;

此处完成环境配置并将机械臂通过 USB 连接到电脑后,需要执行 python -m lerobot.find_port 来寻找机械臂的端口号,详细在机械臂的相关二次开发教程中有详细说明。

SO100 安装完成后,开始进行本项目的配置,可在之前 conda 创建的环境中接着进行配置,在 git clone 之后直接 pip install -e .即可,中间可能会报错停止,重复几次即可;此处要注意的点在于 OpenSSL 生成签名证书,如果直接没有进行过相关配置,是必须要进行执行的,最好在项目目录执行该命令,后续在运行时,证书在哪个目录下,就要在哪个目录进行运行。

首次运行时需要进行机械臂活动范围的标定,如果之前没有在 LeRobot 进行过,是必要的步骤,标定需要在配置的环境下执行如下命令 telegrip --log-level info --left-port 机械臂的端口号,此处可在 LeRobot 的官方教程或二次开发文件中查找 机械中值的位置并自己活动各个电机的活动范围,标定完成之后,打断进行正常的运行,得到网址在本机的浏览器运行连接机械臂,并在 VR 端的浏览器输入网址,即可进行遥操;只要机械臂连接成功,即可通过键盘进行调试。

特别注意,在 Ubuntu 系统部署的用户在执行时需要提前给定 机械臂端口权限,如:sudo chmod 666 /dev/ttySO100*

二、项目流程与源码解析

在 GitHub 上有简略的运行流程图如下:

在这里插入图片描述


由图可知,输入数据包括 VR 手柄与键盘,前者通过 WebSocket 进行数据传输,后者监听运行服务器的键盘,接着一块送入Control Loop 中进行解算处理,最后将解算的位姿更新到 pybullet 与实际硬件。其与代码对应关系为如下:

架构图模块对应代码文件/目录功能说明
VR Controllersweb-ui/vr_app.jsindex.html负责从 VR 设备(如 Meta Quest)采集手柄位姿数据(位置 + 姿态)并通过 WebSocket 发送到服务器。
Keyboardtelegrip/inputs/keyboard_listener.py(在 inputs 目录中)监听键盘输入事件(例如切换模式、重置姿态等),作为替代或辅助控制输入。
WebSocket Serverweb-ui/vr_app.js 启动建立 WebSocket 通信,接收来自 VR 前端的实时控制指令流。
Keyboard Listenertelegrip/inputs/keyboard_listener.py接收键盘事件,将其转换为标准化的控制指令放入命令队列。
Command Queuetelegrip\inputs\vr_ws_server.py负责接收来自不同输入源(VR / 键盘)的指令并排队,提供线程安全的统一接口供主控制循环读取。
Control Looptelegrip/control_loop.pyTeleGrip 的核心控制逻辑:从命令队列中读取最新的控制数据,进行插值(interpolation.py)、限幅与更新,然后分发到机器人或仿真模块。
Robot Interfacetelegrip/core/robot_interface.py封装与实际机械臂(SO100)的通信逻辑:建立串口连接、发送关节角、读取状态、执行运动控制命令。
SO100 Robot Hardware/URDF/SO100/定义 SO100 机械臂的 URDF 模型和运动学结构,用于与实际硬件对齐或仿真一致性验证。
PyBullet Visualizertelegrip/core/pybullet_visualizer.py用于在 PyBullet 中实时可视化机械臂动作,实现 3D 动作预览与调试。
辅助功能模块telegrip/utils.pykinematics.pyconfig.pyconfig.yaml提供配置管理、IK解算算法、姿态文件解析、参数加载等工具功能。
入口脚本telegrip/main.py程序入口:启动 WebSocket 服务器、加载配置、创建控制循环、启动通信线程。

从代码角度看整体运行流程如下:

在这里插入图片描述

整体大致可分为采集、数据格式统一处理、解算并发送三个流程,其中采集采用 浏览器插件 A-Frame,其是一个基于 HTML 的 WebXR 框架,用于构建虚拟现实(VR)、增强现实(AR)和 3D 场景,运行在普通网页浏览器中。它是 Mozilla 开发的开源项目,目标是让 任何人都能通过写 HTML 快速搭建 3D/VR 应用,此处是使用其进行手柄位置与姿态的采集,同时在该部分使用 websocket 将在 VR 端采集到的数据发送服务端;

接着在服务端 vr_ws_server.py 的进行接收并进行数据的统一处理,注意此处仅包括 VR 端数据,键盘数据因为是本地监听,在监听时就已经做了处理;

处理完成后通过 python 内部通信传输到 control_loop.py ,在 pybullet 中进行 IK 解算,解算完成后将对应的位姿发送到 pybullet 的仿真以及外部实际的硬件中。

各部分详细处理大致如下所示:

在这里插入图片描述


此处对应数据采集部分;

在这里插入图片描述


此处对应数据统一处理并发送;

在这里插入图片描述


此处对应数据 IK 解算、数据发送;

三、小结与运行效果

TeleGrip 项目以 浏览器端 VR 控制 → WebSocket 数据传输 → 后端控制循环解算 → 机械臂动作执行 为核心流程,实现了从虚拟空间到物理空间的实时映射。其系统结构层次清晰、模块划分明确、易于扩展,是一个轻量化的 VR 远程操控框架。

通过 TeleGrip,可以在普通 PC + Meta Quest + 入门级 SO100 机械臂的低成本配置下,实现高精度、低延迟的远程动作控制。
前端基于 A-Frame 框架进行位姿采集与可视化,后端以 Python 为主线,实现了命令队列管理、控制循环计算、运动插值与姿态解算,并支持 PyBullet 仿真与实际硬件同步。

该框架不仅可用于 VR 操控实验、具身智能交互研究、双臂协作任务验证,也可作为后续多模态交互系统(如语音控制、视觉识别、策略优化) 的基础模块,此外 LeRobot 本身也自带许多可进行研究的模块,包括 VLA 模型的训练、微调等。

下图为 TeleGrip 的运行效果示例,展示了 VR 控制器驱动 SO100 机械臂进行同步运动 的过程:

简单遥操

可以看出在大幅度动作时,有些动作对应不上,可能是采用的 IK 解算方法为比较基础的 DLS(阻尼最小二乘法)的关系,也可能是中间数据没有进行插值的原因(简单插值后动作会顺滑一些),不过此处仅作验证,不做过多概述。

Read more

PX4使用mid360通过fastlio算法实现无人机定点模式悬停

PX4使用mid360通过fastlio算法实现无人机定点模式悬停

无人机为自主搭建,px4固件版本使用为1.15.4(pixhawk 6cmini),机载电脑为jetson orin nano,激光雷达为大疆的mid360,激光雷达通过开源算法fastlio获取当前位置信息,转换为ENU坐标系下的位置通过mavros话题发布给px4,实现无人机定位效果,使用过程中无光流无GPS。其中远程控制软件为nomachine,使用路由器为千兆(使用电脑热点或者较差路由器可能会导致远程连接巨卡并且是不是掉线,因此尽量选择一个好一点的路由器来进行远程控制),同时orin nano可能存在一些问题,当出现下图标志时,nomachine才可以进行远程操控,并非开机立刻启动。                                首先搭建mid360实现fastlio所需环境,可以得到激光雷达获取到的当前定位信息,即可以通过打印激光雷达当前的odometry信息完成雷达的定位即无人机当前位置。         启动雷达: roslaunch livox_ros_driver2 msg_MID360.launch         启动fa

【机器人】ROS2 功能包创建与 CMake 编译链路探秘

【机器人】ROS2 功能包创建与 CMake 编译链路探秘

🔥大奇个人主页 :https://blog.ZEEKLOG.net/m0_75192474?type=blog ⚡本文所属专栏:https://blog.ZEEKLOG.net/m0_75192474/category_13131150.html ros2 pkg create 是 ROS2(Robot Operating System 2)中用于快速初始化功能包的官方核心命令行工具。其核心作用是自动生成功能包所需的完整目录结构、配置文件及可选示例节点,避免手动创建文件和配置的繁琐操作,大幅提升开发效率。 该命令支持两种主流构建类型(C++/Python),可直接指定依赖包、维护者信息、开源协议等关键配置,生成的功能包完全符合 ROS2 官方规范,可直接用于编译、运行及后续开发扩展 ⏰ 创建工作空间 首先需要再主目录中新建一个文件夹,带src目录 mkdir-p test_ws/

AI一镜到底效果炸裂 把教材插图变成VR全景视频(附提示词)

AI一镜到底效果炸裂 把教材插图变成VR全景视频(附提示词)

大家好,我是AI培训韩老师! 在电影的世界里,有一种拍摄手法总能引发观众惊叹——一镜到底。它让镜头像一双无形的眼睛,带领我们穿越战场、潜入犯罪现场、亲历角色内心世界,不间断地体验完整的故事时空。 于是很多人会问我,如何用AI实现一镜到底?简单来说就是不用剪辑一键生成,又简单有高级那种。下面通过这篇文章告诉你! 用AI生成具有电影感的“一镜到底”视频,关键在于清晰地告诉AI你想要的镜头运动轨迹和场景衔接方式。下面我为你梳理了从核心思路、具体方法到实用技巧的完整指南。 🎬 理解AI一镜到底的核心 在AI视频生成中,它通常通过两种方式实现: * 智能多帧创作:这是目前更主流高效的方法。你先准备一系列在内容上连贯的图片(相当于分镜图),然后AI会模拟镜头的连续运动,将这些画面无缝连接成一段长视频,营造出一镜到底的观感。 * 单一长提示词生成:直接用一个详细的长段文本描述整个镜头的运动路径和所有场景变化,由AI直接生成视频。这对提示词书写要求极高,且效果不确定性更大。 无论哪种方式,精准地描述镜头运动(运镜)都是成功的关键。 📷 掌握核心运镜技巧 你需要像导演一样思考,

Neo4j(一) - Neo4j安装教程(Windows)

Neo4j(一) - Neo4j安装教程(Windows)

文章目录 * 前言 * 一、JDK与Neo4j版本对应关系 * 二、JDK11安装及配置 * 1. JDK11下载 * 2. 解压 * 3. 配置环境变量 * 3.1 打开系统属性设置 * 3.2 新建系统环境变量 * 3.3 编辑 PATH 环境变量 * 3.4 验证环境变量是否配置成功 * 三、Neo4j安装(Windows) * 1. 下载并解压Neo4j安装包 * 1.1 下载 * 1.2 解压 * 2. 配置环境变量 * 2.1 打开系统属性设置 * 2.2 编辑 PATH 环境变量 * 2.3 验证环境变量是否配置成功