具身神经-机器人运控通讯架构与实现系列

具身智能热潮之下,大量企业投身具身行业。在机器人本体控制方案上各家争鸣,但是试错路径太长,不少团队会在底层控制方案上走大量的弯路,导致资源浪费、项目延期甚至破产。

以第一性原则,探索当前具身机器人通讯架构实现最优解,加速具身机器人行业底层控制(通讯)系统技术方向收敛。尽可能帮助机器人本体系统工程师减少试错。

本系列仅针对机器人本体控制系统底层通讯部分:小脑<--->执行器/传感器之间的架构和具体实现。

gitee链接:https://gitee.com/Lenz_s_law/embodied-nerve

博文汇总

欢迎投稿

通讯架构分析篇

CAN/FD技术篇

  • CAN/FD总线性能分析-机器人应用
  • 机器人CAN/FD总线通讯架构设计
  • 机器人CAN/FD接口关键性能指标
  • 机器人CAN/FD接口扩展/实现方案

EtherCAT技术篇

内容待补充

机器人通讯模组计划

高性能USB-CANFD工具普及计划(非盈利性推广)

开源具身运控模块:EtherCAT-CANFDX4-OP

参考智元DCU方案设计,项目链接: https://gitee.com/ChengDu-KunHong/kh-ethercat-canfdx4-op.git

Read more

Windows环境本地大模型工具链安装教程:Ollama + llama.cpp + LLaMA Factory

Windows 11 本地大模型工具链终极教程:Ollama + llama.cpp + LLaMA Factory 本教程将指导你在 Windows 11 系统上,将 Ollama、llama.cpp 和 LLaMA Factory 三个工具统一安装到 E 盘,并实现 GPU 加速、数据集配置和一键启动。所有步骤均已实际验证,适用于 RTX 5080 等现代显卡。 📁 1. 统一文件夹结构(推荐) 在 E 盘 创建父文件夹 LLM,用于集中管理所有相关文件。子文件夹规划如下: text E:\LLM\ ├── Ollama\ # Ollama 程序安装目录 ├── OllamaModels\ # Ollama 下载的模型存放目录

LLaMA-Factory环境配置与WebUI启动全攻略:从CUDA适配到依赖踩坑

最近在本地部署LLaMA-Factory时,踩了一连串环境配置的坑——从GitHub克隆失败、CUDA不可用到虚拟环境依赖缺失,最终成功启动WebUI。这篇文章就把完整的排错过程和解决方案整理出来,希望能帮到遇到类似问题的同学。 一、问题背景:本地部署LLaMA-Factory的核心诉求 目标是在Windows 10环境下,基于Anaconda创建虚拟环境,部署LLaMA-Factory并启动WebUI,利用本地NVIDIA MX230显卡(2GB显存)实现GPU加速。但从克隆仓库开始,就遇到了一系列报错,主要涉及三类问题: * 仓库克隆失败(GitHub连接重置、Gitee 403权限拒绝); * PyTorch CUDA支持缺失(报“Torch not compiled with CUDA enabled”); * 虚拟环境依赖缺失(直接运行WebUI报“ModuleNotFoundError: No module named 'torch'”)。 二、核心报错解析与分步解决方案 坑1:仓库克隆失败——网络限制与镜像选择 报错现象 从GitHub克隆时提示连

解决VsCode远程服务器上Copilot无法使用Claude的问题

最近在用vscode中的GitHub copilot,发现无法使用claude系列的模型 很多小伙伴知道要开代理,开往带你以后claude确实会出来,本地使用没有任何问题,但是如果使用远程服务器ssh,claude系列的模型就消失了,参考这篇博客https://blog.ZEEKLOG.net/qq_40620465/article/details/152000104 按照博主的方法,需要加一个改动,在设置远程服务器(注意不是“用户”)的setting.json时需要加入"http.useLocalProxyConfiguration": true, 完成后再重启vscode,claude就有了: