【实战源码】TeleGrip:基于VR的机械臂遥操作系统全流程解析

【实战源码】TeleGrip:基于VR的机械臂遥操作系统全流程解析

摘要

本文对开源项目 TeleGrip 的架构与源码进行了剖析。该系统基于 LeRobot 框架,通过 VR 端位姿采集—WebSocket 通信—控制循环解算—机械臂执行 的流程,实现虚拟与物理空间的实时映射。前端采用 A-Frame 进行手柄姿态获取与可视化,后端以 Python 实现命令队列、插值与逆运动学计算,并同步驱动 PyBullet 仿真与 SO100 实体机械臂。该框架具有低延迟、高扩展性等特点,可用于 VR 遥操作、具身智能及多模态交互研究。

前言:项目背景与价值

想象一下你戴上 VR 头显,用手柄抓取虚拟物体,现实中的机械臂同步完成同样的动作——这就是 TeleGrip 的核心。
本文将带你从源码角度理解它是如何实现“虚拟到现实”的信号映射与控制闭环的。

在这里插入图片描述


GitHub链接:https://github.com/DipFlip/telegrip

对应deepwiki:https://deepwiki.com/DipFlip/telegrip

一、环境配置与运行指南

关于该部分在项目的 GitHub 界面已经写的非常详细,此处仅作简略总结,环境配置如下表所示:

项目类别内容说明示例命令 / 备注
硬件要求机器人硬件一台或两台 SO100 机械臂(USB 串口连接)
软件环境Python 环境Python ≥ 3.8,并安装相关依赖包
VR 设备(可选)VR 头显Meta Quest / 其他支持 WebXR 的设备(无需额外安装应用)
基础依赖项目安装 LeRobot(基础功能库)网址:https://github.com/huggingface/lerobot.git
TeleGrip 主程序安装 TeleGrip(VR 控制端)网址:https://github.com/DipFlip/telegrip.git
证书配置SSL 证书自动生成若未检测到 cert.pemkey.pem,系统会自动创建
手动生成证书(可选)使用 OpenSSL 生成自签名证书openssl req -x509 -newkey rsa:2048 -keyout key.pem -out cert.pem -sha256 -days 365 -nodes -subj "/C=US/ST=Test/L=Test/O=Test/OU=Test/CN=localhost
运行验证启动 TeleGrip 测试服务在 TeleGrip 根目录运行示例脚本,确认 VR 与机械臂通信正常

项目是在 Lerobot 的基础上进行的二次开发,使用硬件为典型 6 自由度入门机械臂 SO100,在各个平台均有销售,一套主从臂价格在1400 左右,但注意项目视频中为两从臂;

VR 头显为低成本的 Meta Quest,主要用于采集手柄的位姿信息,注意此处采集采用的是 VR 端的浏览器插件 A-FRAME,对硬件本身要求不高,如无特别需要,最小内存的 Meta Quest 3S 完全够用,其价格在 2000 左右;

项目配置环境时首先要配置 SO100 机械臂的驱动,表中已经给出项目地址,其中包含详细的配置流程,包括 conda 建立新环境、pip 一键安装等,详细如 conda 网络配置等不做概述,此处要注意的点为,在执行完 pip install -e . 后,要再运行 pip install 'lerobot[feetech]',才能正常运行项目;还有关于 Weights and Biases 的注册等等,不在此处做过多概述;安装完成后可执行example 1 进行验证;

此处完成环境配置并将机械臂通过 USB 连接到电脑后,需要执行 python -m lerobot.find_port 来寻找机械臂的端口号,详细在机械臂的相关二次开发教程中有详细说明。

SO100 安装完成后,开始进行本项目的配置,可在之前 conda 创建的环境中接着进行配置,在 git clone 之后直接 pip install -e .即可,中间可能会报错停止,重复几次即可;此处要注意的点在于 OpenSSL 生成签名证书,如果直接没有进行过相关配置,是必须要进行执行的,最好在项目目录执行该命令,后续在运行时,证书在哪个目录下,就要在哪个目录进行运行。

首次运行时需要进行机械臂活动范围的标定,如果之前没有在 LeRobot 进行过,是必要的步骤,标定需要在配置的环境下执行如下命令 telegrip --log-level info --left-port 机械臂的端口号,此处可在 LeRobot 的官方教程或二次开发文件中查找 机械中值的位置并自己活动各个电机的活动范围,标定完成之后,打断进行正常的运行,得到网址在本机的浏览器运行连接机械臂,并在 VR 端的浏览器输入网址,即可进行遥操;只要机械臂连接成功,即可通过键盘进行调试。

特别注意,在 Ubuntu 系统部署的用户在执行时需要提前给定 机械臂端口权限,如:sudo chmod 666 /dev/ttySO100*

二、项目流程与源码解析

在 GitHub 上有简略的运行流程图如下:

在这里插入图片描述


由图可知,输入数据包括 VR 手柄与键盘,前者通过 WebSocket 进行数据传输,后者监听运行服务器的键盘,接着一块送入Control Loop 中进行解算处理,最后将解算的位姿更新到 pybullet 与实际硬件。其与代码对应关系为如下:

架构图模块对应代码文件/目录功能说明
VR Controllersweb-ui/vr_app.jsindex.html负责从 VR 设备(如 Meta Quest)采集手柄位姿数据(位置 + 姿态)并通过 WebSocket 发送到服务器。
Keyboardtelegrip/inputs/keyboard_listener.py(在 inputs 目录中)监听键盘输入事件(例如切换模式、重置姿态等),作为替代或辅助控制输入。
WebSocket Serverweb-ui/vr_app.js 启动建立 WebSocket 通信,接收来自 VR 前端的实时控制指令流。
Keyboard Listenertelegrip/inputs/keyboard_listener.py接收键盘事件,将其转换为标准化的控制指令放入命令队列。
Command Queuetelegrip\inputs\vr_ws_server.py负责接收来自不同输入源(VR / 键盘)的指令并排队,提供线程安全的统一接口供主控制循环读取。
Control Looptelegrip/control_loop.pyTeleGrip 的核心控制逻辑:从命令队列中读取最新的控制数据,进行插值(interpolation.py)、限幅与更新,然后分发到机器人或仿真模块。
Robot Interfacetelegrip/core/robot_interface.py封装与实际机械臂(SO100)的通信逻辑:建立串口连接、发送关节角、读取状态、执行运动控制命令。
SO100 Robot Hardware/URDF/SO100/定义 SO100 机械臂的 URDF 模型和运动学结构,用于与实际硬件对齐或仿真一致性验证。
PyBullet Visualizertelegrip/core/pybullet_visualizer.py用于在 PyBullet 中实时可视化机械臂动作,实现 3D 动作预览与调试。
辅助功能模块telegrip/utils.pykinematics.pyconfig.pyconfig.yaml提供配置管理、IK解算算法、姿态文件解析、参数加载等工具功能。
入口脚本telegrip/main.py程序入口:启动 WebSocket 服务器、加载配置、创建控制循环、启动通信线程。

从代码角度看整体运行流程如下:

在这里插入图片描述

整体大致可分为采集、数据格式统一处理、解算并发送三个流程,其中采集采用 浏览器插件 A-Frame,其是一个基于 HTML 的 WebXR 框架,用于构建虚拟现实(VR)、增强现实(AR)和 3D 场景,运行在普通网页浏览器中。它是 Mozilla 开发的开源项目,目标是让 任何人都能通过写 HTML 快速搭建 3D/VR 应用,此处是使用其进行手柄位置与姿态的采集,同时在该部分使用 websocket 将在 VR 端采集到的数据发送服务端;

接着在服务端 vr_ws_server.py 的进行接收并进行数据的统一处理,注意此处仅包括 VR 端数据,键盘数据因为是本地监听,在监听时就已经做了处理;

处理完成后通过 python 内部通信传输到 control_loop.py ,在 pybullet 中进行 IK 解算,解算完成后将对应的位姿发送到 pybullet 的仿真以及外部实际的硬件中。

各部分详细处理大致如下所示:

在这里插入图片描述


此处对应数据采集部分;

在这里插入图片描述


此处对应数据统一处理并发送;

在这里插入图片描述


此处对应数据 IK 解算、数据发送;

三、小结与运行效果

TeleGrip 项目以 浏览器端 VR 控制 → WebSocket 数据传输 → 后端控制循环解算 → 机械臂动作执行 为核心流程,实现了从虚拟空间到物理空间的实时映射。其系统结构层次清晰、模块划分明确、易于扩展,是一个轻量化的 VR 远程操控框架。

通过 TeleGrip,可以在普通 PC + Meta Quest + 入门级 SO100 机械臂的低成本配置下,实现高精度、低延迟的远程动作控制。
前端基于 A-Frame 框架进行位姿采集与可视化,后端以 Python 为主线,实现了命令队列管理、控制循环计算、运动插值与姿态解算,并支持 PyBullet 仿真与实际硬件同步。

该框架不仅可用于 VR 操控实验、具身智能交互研究、双臂协作任务验证,也可作为后续多模态交互系统(如语音控制、视觉识别、策略优化) 的基础模块,此外 LeRobot 本身也自带许多可进行研究的模块,包括 VLA 模型的训练、微调等。

下图为 TeleGrip 的运行效果示例,展示了 VR 控制器驱动 SO100 机械臂进行同步运动 的过程:

简单遥操

可以看出在大幅度动作时,有些动作对应不上,可能是采用的 IK 解算方法为比较基础的 DLS(阻尼最小二乘法)的关系,也可能是中间数据没有进行插值的原因(简单插值后动作会顺滑一些),不过此处仅作验证,不做过多概述。

Read more

5大优势打造智能家居能源网络:EEBus标准实战指南

5大优势打造智能家居能源网络:EEBus标准实战指南 【免费下载链接】evccSonne tanken ☀️🚘 项目地址: https://gitcode.com/GitHub_Trending/ev/evcc 概念解析:什么是EEBus?⚡️ 想象一下,如果你的太阳能板、电动汽车和智能家居设备都说同一种语言,能自动协调工作——这就是EEBus的魔力!它就像能源界的"通用插座"🔌,让不同品牌的设备无缝对话,实现真正的智能能源管理。 核心原理3分钟看懂 EEBus是一种让家庭能源设备互相"说话"的技术标准。简单说,它给每个设备发了一本"沟通手册",规定了: * 如何自我介绍(设备类型与能力) * 如何传递消息(能源数据格式) * 如何协同工作(负载分配规则) 传统充电系统像各说各话的对讲机,而EEBus则是统一的"能源翻译官",让太阳能板知道电动车需要多少电,

Pi0机器人VLA大模型在昇腾A2平台上的测评

Pi0机器人VLA大模型在昇腾A2平台上的测评

Pi0机器人VLA大模型在昇腾A2平台上的测评文档 * 写在最前面 🌈你好呀!我是 是Yu欸🚀 感谢你的陪伴与支持~ 欢迎添加文末好友🌌 在所有感兴趣的领域扩展知识,不定期掉落福利资讯(*^▽^*) 写在最前面 版权声明:本文为原创,遵循 CC 4.0 BY-SA 协议。转载请注明出处。 随着人工智能技术的持续神户以及人形机器人产业的快速发展,算力在提升机器人运动控制精度、实时响应能力与智能化水平方面的作用日益凸显。为实现降本增效,国产化算力代替需求不断攀升,本文基于国产化适配的 Pi0机器 VLA大模型,在昇腾 Atlas 800I A2服务器上完成部署与测试,结果表明:该模型在推理性能、推理精度及功能完整性等方面,不仅实现了与英伟达同级别硬件相当的算力表现,更在部分场景下表现出更优的运行效率。 这一成果充分表明:经过深度适配的国产大模型与国产算力平台,已具备支撑高端人形机器人智能化发展的核心技术能力。国产算力在人形机器人领域的应用场景广阔,正加速迈向自主可控、高效可靠的全新阶段。 一、测评概述 1.1 测试目的 本测评旨在验证Pi0机器人视觉

飞书机器人与Claude Code交互:从手机指令到AI处理的全自动流程

飞书机器人与Claude Code交互:从手机指令到AI处理的全自动流程

飞书机器人与Claude Code交互:从手机指令到AI处理的全自动流程 * 一、背景 * 二、实现方案概览 * 三、操作步骤 * 前置准备 * 第一步:创建并进入Claude Code容器 * 配置Claude Code使用本地模型 * 测试Claude Code是否正常工作 * 第二步:安装Python依赖 * 第三步:获取飞书应用的凭证 * 第四步:编写并运行中间件脚本 * 脚本解释 * 运行脚本 * 第五步:在飞书中与机器人对话 * 常见问题 * 总结 一、背景 在日常开发中,我们经常需要快速查询代码问题、生成文档或执行简单的编程任务。如果有一款AI助手能随时响应,就像在电脑终端前一样,那该多方便!本教程将演示如何搭建一个飞书机器人,当你在手机飞书App上发送消息时,该消息会传递给运行在电脑上的Claude Code(一个智能编码助手),Claude Code处理后将结果回复到你的飞书会话中。 通过这个方案,你可以: * 在手机上随时向AI提问编程问题。 * 让AI帮你调试

Webots 2025a + ROS 2 Jazzy e-puck 机器人教程

Webots 2025a + ROS 2 Jazzy e-puck 机器人教程

Webots 2025a + ROS 2 Jazzy e-puck 机器人分步使用与研究教程 本教程跳过环境安装环节,聚焦实操步骤和深度研究维度,从基础仿真启动到核心模块拆解,每一步都标注操作指令、验证方法和研究切入点,帮助你彻底掌握 e-puck 机器人的 ROS 2 集成使用。 前提确认 先执行以下命令验证环境就绪(确保无报错): bash 运行 # 加载ROS 2环境(若已添加到.bashrc可跳过) source ~/webots_ws/install/setup.bash # 验证功能包存在 ros2 pkg list | grep webots_ros2_epuck # 验证Webots版本 webots --version # 输出应包含2025a webots --version webots --version webots