【实战源码】TeleGrip:基于VR的机械臂遥操作系统全流程解析

【实战源码】TeleGrip:基于VR的机械臂遥操作系统全流程解析

摘要

本文对开源项目 TeleGrip 的架构与源码进行了剖析。该系统基于 LeRobot 框架,通过 VR 端位姿采集—WebSocket 通信—控制循环解算—机械臂执行 的流程,实现虚拟与物理空间的实时映射。前端采用 A-Frame 进行手柄姿态获取与可视化,后端以 Python 实现命令队列、插值与逆运动学计算,并同步驱动 PyBullet 仿真与 SO100 实体机械臂。该框架具有低延迟、高扩展性等特点,可用于 VR 遥操作、具身智能及多模态交互研究。

前言:项目背景与价值

想象一下你戴上 VR 头显,用手柄抓取虚拟物体,现实中的机械臂同步完成同样的动作——这就是 TeleGrip 的核心。
本文将带你从源码角度理解它是如何实现“虚拟到现实”的信号映射与控制闭环的。

在这里插入图片描述


GitHub链接:https://github.com/DipFlip/telegrip

对应deepwiki:https://deepwiki.com/DipFlip/telegrip

一、环境配置与运行指南

关于该部分在项目的 GitHub 界面已经写的非常详细,此处仅作简略总结,环境配置如下表所示:

项目类别内容说明示例命令 / 备注
硬件要求机器人硬件一台或两台 SO100 机械臂(USB 串口连接)
软件环境Python 环境Python ≥ 3.8,并安装相关依赖包
VR 设备(可选)VR 头显Meta Quest / 其他支持 WebXR 的设备(无需额外安装应用)
基础依赖项目安装 LeRobot(基础功能库)网址:https://github.com/huggingface/lerobot.git
TeleGrip 主程序安装 TeleGrip(VR 控制端)网址:https://github.com/DipFlip/telegrip.git
证书配置SSL 证书自动生成若未检测到 cert.pemkey.pem,系统会自动创建
手动生成证书(可选)使用 OpenSSL 生成自签名证书openssl req -x509 -newkey rsa:2048 -keyout key.pem -out cert.pem -sha256 -days 365 -nodes -subj "/C=US/ST=Test/L=Test/O=Test/OU=Test/CN=localhost
运行验证启动 TeleGrip 测试服务在 TeleGrip 根目录运行示例脚本,确认 VR 与机械臂通信正常

项目是在 Lerobot 的基础上进行的二次开发,使用硬件为典型 6 自由度入门机械臂 SO100,在各个平台均有销售,一套主从臂价格在1400 左右,但注意项目视频中为两从臂;

VR 头显为低成本的 Meta Quest,主要用于采集手柄的位姿信息,注意此处采集采用的是 VR 端的浏览器插件 A-FRAME,对硬件本身要求不高,如无特别需要,最小内存的 Meta Quest 3S 完全够用,其价格在 2000 左右;

项目配置环境时首先要配置 SO100 机械臂的驱动,表中已经给出项目地址,其中包含详细的配置流程,包括 conda 建立新环境、pip 一键安装等,详细如 conda 网络配置等不做概述,此处要注意的点为,在执行完 pip install -e . 后,要再运行 pip install 'lerobot[feetech]',才能正常运行项目;还有关于 Weights and Biases 的注册等等,不在此处做过多概述;安装完成后可执行example 1 进行验证;

此处完成环境配置并将机械臂通过 USB 连接到电脑后,需要执行 python -m lerobot.find_port 来寻找机械臂的端口号,详细在机械臂的相关二次开发教程中有详细说明。

SO100 安装完成后,开始进行本项目的配置,可在之前 conda 创建的环境中接着进行配置,在 git clone 之后直接 pip install -e .即可,中间可能会报错停止,重复几次即可;此处要注意的点在于 OpenSSL 生成签名证书,如果直接没有进行过相关配置,是必须要进行执行的,最好在项目目录执行该命令,后续在运行时,证书在哪个目录下,就要在哪个目录进行运行。

首次运行时需要进行机械臂活动范围的标定,如果之前没有在 LeRobot 进行过,是必要的步骤,标定需要在配置的环境下执行如下命令 telegrip --log-level info --left-port 机械臂的端口号,此处可在 LeRobot 的官方教程或二次开发文件中查找 机械中值的位置并自己活动各个电机的活动范围,标定完成之后,打断进行正常的运行,得到网址在本机的浏览器运行连接机械臂,并在 VR 端的浏览器输入网址,即可进行遥操;只要机械臂连接成功,即可通过键盘进行调试。

特别注意,在 Ubuntu 系统部署的用户在执行时需要提前给定 机械臂端口权限,如:sudo chmod 666 /dev/ttySO100*

二、项目流程与源码解析

在 GitHub 上有简略的运行流程图如下:

在这里插入图片描述


由图可知,输入数据包括 VR 手柄与键盘,前者通过 WebSocket 进行数据传输,后者监听运行服务器的键盘,接着一块送入Control Loop 中进行解算处理,最后将解算的位姿更新到 pybullet 与实际硬件。其与代码对应关系为如下:

架构图模块对应代码文件/目录功能说明
VR Controllersweb-ui/vr_app.jsindex.html负责从 VR 设备(如 Meta Quest)采集手柄位姿数据(位置 + 姿态)并通过 WebSocket 发送到服务器。
Keyboardtelegrip/inputs/keyboard_listener.py(在 inputs 目录中)监听键盘输入事件(例如切换模式、重置姿态等),作为替代或辅助控制输入。
WebSocket Serverweb-ui/vr_app.js 启动建立 WebSocket 通信,接收来自 VR 前端的实时控制指令流。
Keyboard Listenertelegrip/inputs/keyboard_listener.py接收键盘事件,将其转换为标准化的控制指令放入命令队列。
Command Queuetelegrip\inputs\vr_ws_server.py负责接收来自不同输入源(VR / 键盘)的指令并排队,提供线程安全的统一接口供主控制循环读取。
Control Looptelegrip/control_loop.pyTeleGrip 的核心控制逻辑:从命令队列中读取最新的控制数据,进行插值(interpolation.py)、限幅与更新,然后分发到机器人或仿真模块。
Robot Interfacetelegrip/core/robot_interface.py封装与实际机械臂(SO100)的通信逻辑:建立串口连接、发送关节角、读取状态、执行运动控制命令。
SO100 Robot Hardware/URDF/SO100/定义 SO100 机械臂的 URDF 模型和运动学结构,用于与实际硬件对齐或仿真一致性验证。
PyBullet Visualizertelegrip/core/pybullet_visualizer.py用于在 PyBullet 中实时可视化机械臂动作,实现 3D 动作预览与调试。
辅助功能模块telegrip/utils.pykinematics.pyconfig.pyconfig.yaml提供配置管理、IK解算算法、姿态文件解析、参数加载等工具功能。
入口脚本telegrip/main.py程序入口:启动 WebSocket 服务器、加载配置、创建控制循环、启动通信线程。

从代码角度看整体运行流程如下:

在这里插入图片描述

整体大致可分为采集、数据格式统一处理、解算并发送三个流程,其中采集采用 浏览器插件 A-Frame,其是一个基于 HTML 的 WebXR 框架,用于构建虚拟现实(VR)、增强现实(AR)和 3D 场景,运行在普通网页浏览器中。它是 Mozilla 开发的开源项目,目标是让 任何人都能通过写 HTML 快速搭建 3D/VR 应用,此处是使用其进行手柄位置与姿态的采集,同时在该部分使用 websocket 将在 VR 端采集到的数据发送服务端;

接着在服务端 vr_ws_server.py 的进行接收并进行数据的统一处理,注意此处仅包括 VR 端数据,键盘数据因为是本地监听,在监听时就已经做了处理;

处理完成后通过 python 内部通信传输到 control_loop.py ,在 pybullet 中进行 IK 解算,解算完成后将对应的位姿发送到 pybullet 的仿真以及外部实际的硬件中。

各部分详细处理大致如下所示:

在这里插入图片描述


此处对应数据采集部分;

在这里插入图片描述


此处对应数据统一处理并发送;

在这里插入图片描述


此处对应数据 IK 解算、数据发送;

三、小结与运行效果

TeleGrip 项目以 浏览器端 VR 控制 → WebSocket 数据传输 → 后端控制循环解算 → 机械臂动作执行 为核心流程,实现了从虚拟空间到物理空间的实时映射。其系统结构层次清晰、模块划分明确、易于扩展,是一个轻量化的 VR 远程操控框架。

通过 TeleGrip,可以在普通 PC + Meta Quest + 入门级 SO100 机械臂的低成本配置下,实现高精度、低延迟的远程动作控制。
前端基于 A-Frame 框架进行位姿采集与可视化,后端以 Python 为主线,实现了命令队列管理、控制循环计算、运动插值与姿态解算,并支持 PyBullet 仿真与实际硬件同步。

该框架不仅可用于 VR 操控实验、具身智能交互研究、双臂协作任务验证,也可作为后续多模态交互系统(如语音控制、视觉识别、策略优化) 的基础模块,此外 LeRobot 本身也自带许多可进行研究的模块,包括 VLA 模型的训练、微调等。

下图为 TeleGrip 的运行效果示例,展示了 VR 控制器驱动 SO100 机械臂进行同步运动 的过程:

简单遥操

可以看出在大幅度动作时,有些动作对应不上,可能是采用的 IK 解算方法为比较基础的 DLS(阻尼最小二乘法)的关系,也可能是中间数据没有进行插值的原因(简单插值后动作会顺滑一些),不过此处仅作验证,不做过多概述。

Read more

Python无人机编程终极指南:DroneKit控制自主飞行的完整教程

Python无人机编程终极指南:DroneKit控制自主飞行的完整教程 【免费下载链接】dronekit-pythonDroneKit-Python library for communicating with Drones via MAVLink. 项目地址: https://gitcode.com/gh_mirrors/dr/dronekit-python DroneKit-Python是一个强大的开源无人机控制库,让开发者能够使用Python语言轻松实现无人机自主飞行和任务规划。该项目基于MAVLink协议与无人机通信,为开发者提供了丰富的API接口,无论是地面站应用还是机载计算都能完美适配。 项目核心价值解析 DroneKit-Python的核心优势在于其简洁的API设计和强大的功能覆盖。通过这个库,你可以: * 实时获取无人机状态信息(位置、姿态、电池等) * 规划复杂的飞行任务和航点 * 实现自主飞行控制和实时监控 * 集成计算机视觉和路径规划算法 快速上手实战演练 环境配置与安装 首先通过以下命令安装DroneKit-Python: pi

Transformer vs Stable Diffusion vs LLM模型对比

一 三种模型对比 1 Transformer是一个基础架构,是许多现代AI模型的发送机 2LLM和StableDiffusion是两种不同的顶级车型,分别用于处理语言和图像 3开源是这些模型的发布和协作模式 二 下面我们详细拆解 2.1Transformer一切的基石 本质,一种神经网络架构2017 不是具体的模型,而是一种设计思想,核心创新是自注意力机制,让模型在处理序列数据时,能动态的关注所有部分的重要关系,并行高效的学习。 类比:就像汽车的内燃机或电动平台。是一种基础技术,可以被用来制造各种不同类型的车。 影响:彻底改变了自然语言处理领域,并逐渐扩展到视觉,音频等多模态领域,当今绝大多数先进的LLM都是基于Transformer架构构建的。 2.2LLMvsStableDiffusion不同赛道上的顶级选手 维度 LLM StableDiffusion 核心任务 理解和生成人类语言文本,例如,对话,协作,翻译,代码生成。 生成和编辑图像,根据文本描述prompt生成图片,或者对现有图片进行修改 技术基础 主要基于Transformer架构

[论文阅读] 代码也有社交圈?用意见动力学解码开源代码库的演化奥秘

[论文阅读] 代码也有社交圈?用意见动力学解码开源代码库的演化奥秘

代码也有社交圈?用意见动力学解码开源代码库的演化奥秘 论文信息 * 论文原标题:Social Life of Code: Modeling Evolution through Code Embedding and Opinion Dynamics * 主要作者:Yulong He, Nikita Verbina, Sergey Kovalchuk * 研究机构:Yulong He(圣彼得堡国立大学,俄罗斯);Nikita Verbina、Sergey Kovalchuk(ITMO大学,俄罗斯) * 发表信息:arXiv:2602.15412v1 [cs.SE],2026年2月17日 * APA引文格式:He, Y., Verbina, N., & Kovalchuk, S. (2026)

linux中从零开始,将OpenClaw 接入 QQ 机器人

linux中从零开始,将OpenClaw 接入 QQ 机器人

Linux 从零开始:将 OpenClaw 接入 QQ 机器人 本文提供完整的 OpenClaw 安装和 QQ 机器人接入指南,适用于 Debian 12 系统,模型使用华为云提供MAAS 📋 目录 1. 系统准备 2. 安装 OpenClaw 3. 配置 QQ 机器人 4. 测试与验证 5. 常见问题 🚀 系统准备 环境要求 * 操作系统:Debian 12(其他 Linux 发行版类似) * 用户权限:root 用户 * 网络:可正常访问外部网络 1.1 SSH 配置(可选) 如需通过