具身神经-机器人运控通讯架构与实现系列

具身智能热潮之下,大量企业投身具身行业。在机器人本体控制方案上各家争鸣,但是试错路径太长,不少团队会在底层控制方案上走大量的弯路,导致资源浪费、项目延期甚至破产。

以第一性原则,探索当前具身机器人通讯架构实现最优解,加速具身机器人行业底层控制(通讯)系统技术方向收敛。尽可能帮助机器人本体系统工程师减少试错。

本系列仅针对机器人本体控制系统底层通讯部分:小脑<--->执行器/传感器之间的架构和具体实现。

gitee链接:https://gitee.com/Lenz_s_law/embodied-nerve

博文汇总

欢迎投稿

通讯架构分析篇

CAN/FD技术篇

  • CAN/FD总线性能分析-机器人应用
  • 机器人CAN/FD总线通讯架构设计
  • 机器人CAN/FD接口关键性能指标
  • 机器人CAN/FD接口扩展/实现方案

EtherCAT技术篇

内容待补充

机器人通讯模组计划

高性能USB-CANFD工具普及计划(非盈利性推广)

开源具身运控模块:EtherCAT-CANFDX4-OP

参考智元DCU方案设计,项目链接: https://gitee.com/ChengDu-KunHong/kh-ethercat-canfdx4-op.git

Read more

DeepSeek-R1+Stable Diffusion:云端双模型,创意加倍

DeepSeek-R1+Stable Diffusion:云端双模型,创意加倍 你是不是也遇到过这样的情况:写文案时灵感来了,想立刻生成一张配图,结果本地电脑跑不动 Stable Diffusion;或者刚部署好 DeepSeek 做文本创作,再想加个图像生成,显卡直接“罢工”?别急,这并不是你的设备不行,而是大模型对硬件的要求确实不低。 尤其是像 DeepSeek-R1 这样的大语言模型,加上 Stable Diffusion 这类图像生成模型,两者同时运行,对显存和算力的需求是叠加的。根据公开信息,仅 DeepSeek-R1 的满血版(671B 参数)就需要高达 1300GB 显存才能运行,即便是量化后的 7B 版本,也需要至少 8GB 显存起步。而 Stable Diffusion 虽然相对轻量,但高质量出图建议使用 12GB

春晚顶流宇树机器人深度拆解:从武术表演到千亿产业落地

春晚顶流宇树机器人深度拆解:从武术表演到千亿产业落地

一、春晚名场面:国产机器人的“功夫秀”封神时刻 2026马年春晚,《武BOT》节目凭16台宇树G1/H2机器人的硬核表演刷屏全网——1.8米高的H2身着红袍舞剑,3米腾空后空翻落地稳如磐石,剑招精准度达±10mm,完美复刻“苏秦背剑”“白鹤亮翅”等经典招式;G1机器人耍双节棍时转速达2.3圈/秒,打醉拳时躯干摆动幅度±30°,与86名塔沟武校少年实现“人机拳拳相击”的零碰撞协同,动作同步误差低于0.1秒。更令人惊叹的是义乌分会场的创意呈现:H2机器人吊威亚登场化身齐天大圣,手持金箍棒完成360°旋转劈杀,四足机器人B2-W组成动态祥云矩阵,通过队形变换拼出“龙年大吉”字样,传统IP与科技感的融合引发全网热议。 这场表演创下三项世界纪录:全球首次全自主集群武术表演、人形机器人连续空翻最多(单脚3次)、人机协同复杂度最高(16台机器人+86人同步动作),#机器人全面入侵春晚# 话题阅读量破亿,央视评论称其“标志着中国具身智能进入实用化阶段”。而鲜为人知的是,这群“

FPGA 面试题目汇总含解析,FPGAer 上岸必备!

FPGA 面试题目汇总含解析,FPGAer 上岸必备!

每到招聘季,很多做 FPGA 的同学都会有同一个感受: 项目能做,代码能写,一到面试却被问得很散、很细、很杂。 本质原因只有一个: FPGA 面试问的不是“你会不会写代码”,而是“你是否真的理解硬件行为”。 这篇文章整理了一批 FPGA 面试中高频出现的经典问题,覆盖 基础语法、时序设计、接口、调试、工程经验 等方向,每道题都配有工程视角的解析,适合: * 校招 / 社招 FPGA 面试前系统复习 * 查漏补缺,验证自己“到底懂没懂” * 面试前快速过一遍,避免低级失分 一、Verilog / HDL 基础高频题 1. 阻塞赋值(=)和非阻塞赋值(<=)的区别? 参考答案: * 阻塞赋值(=) * 按顺序执行 * 常用于组合逻辑 * 非阻塞赋值(

基于深度学习的无人机航拍小目标检测算法研究

基于深度学习的无人机航拍小目标检测算法研究

本项目针对无人机航拍场景下的小目标检测问题,基于 YOLO11 系列模型,在 VisDrone 2019 数据集上进行训练与优化,并提供了完整的检测系统桌面应用,支持图片、视频、摄像头的实时检测与训练指标可视化。 一、项目概述 无人机航拍图像具有目标尺度小、密集分布、多尺度混合等特点,传统检测算法难以取得理想效果。本项目采用 Ultralytics YOLO11 框架,结合 VisDrone 数据集进行训练,实现了对行人、车辆等 10 类交通相关目标的高效检测,并配套开发了基于 PyQt6 的桌面应用,便于模型验证与日常使用。 二、数据集 2.1 数据集简介 本项目使用 VisDrone 2019-DET 数据集,由天津大学机器学习与数据挖掘实验室 AISKYEYE 团队发布,对应 ICCV 2019 "Vision