机器人标准DH(SDH)与改进DH(MDH)

机器人标准DH(SDH)与改进DH(MDH)
首先说一下为什么要写这一篇博客,就是为了提醒大家要明确区分标准DH和改进DH。很多机器人初学者只知道用DH法建立串联机器人连杆坐标系,然后在看书或者使用DH的时候很糊涂的就模糊了这标准DH和改进DH的区别,最大的坑就是:一些比较老的机器人学教科书用的是标准DH,而现在比较新的机器人书或者说我们大部分用的都是改进DH,这就导致老的教科书里面的一些公式推导和新的网上找的代码不一致,就会比较麻烦。

一:改进DH法

建立连杆坐标系:

使用改进D-H参数,将

坐标系定义在i

连杆的前端关节:

二:标准DH与改进DH法的区别

我们知道一个连杆有两端,一端离基座近,一端离基座远。简单的来说,标准DH将坐标系i建立在连杆i离基座近的一端,改进DH建立在离基座远的一端。

2.1 机器人连杆与关节的标号

先标号,再建系。

连杆编号:基座为杆0,从基座往后依次定义为杆1,杆2,…,杆i;

关节编号:杆i离基座近的一端(近端)的关节为关节i,远的一端(远端)为关节i+1。

为便于理解,这里我把连杆的近端用绿色表示,远端用橙色表示,且远端驱动近端转动。大家只要记住一句话,连杆近端关节的标号和连杆标号是一致的

图1连杆和关节标号

2.2 两种建系方法的区别

区别一:连杆坐标系建立的位置不同。SDH方法将连杆i的坐标系固定在连杆的远端,MDH方法把连杆i的坐标系固定在连杆的近端。

(a)SDH                                (b)MDH

图2 建系方法的不同

区别二:执行变换的的顺序不同。按照SDH方法变换时四个参数相乘的顺序依次为d—>θ—>a—>α,而MDH方法则按照α—>a—>θ—>d(正好与SDH相反)。

三:为什么要用改进DH法,而不选标准DH法

对于树形结构或者闭链机构的机器人来说,按照SDH方法建立的连杆坐标系会产生歧义,因为SDH的建系原则是把连杆i的坐标系建立在连杆的远端,如图3(a)所示,这就导致连杆0上同时出现了两个坐标系。而MDH把连杆坐标系建立在每个连杆的近端,则不会坐标系重合的情况,如图3(b)所示,这就克服了SDH方法建系的缺点。

(a)SDH                                               (b)MDH

图3 坐标系分配的不同

四.总结

1.SDH适合应用于开链结构的机器人

2.当使用SDH表示树状或闭链结构的机器人时,会产生歧义;

3.MDH法对开链、树状、闭链结构的机器人都适用,推荐使用。

五.我遇到的坑

在下面这本教材里面

显然用的是DH参数法,因此在后面推导几何雅可比矩阵的时候

提到

z_{i-1}

p_{i-1}

分别由

R^0_{i-1}

T^0_{i-1}

得到:

但是如果你用的是改进DH参数法进行建模,核心公式(3.30)应该是:

原因是原本的标准DH的坐标系

i-1

对应的z轴

z_{i-1}

就是改进的DH的的坐标系

i

的z轴

z_i

下面是基于改进DH计算几何雅可比的代码
 

function J_geo = geometric_jacobian_from_q_corrected(q) % 根据关节角度计算几何雅可比矩阵,匹配MATLAB工具箱的顺序 % 输入: q - 7×1关节角向量 (弧度) % 输出: J_geo - 6×7几何雅可比矩阵 % Franka Panda的DH参数 (Modified DH) % 格式: [alpha, a, d, theta] MDH = [0, 0, 0.333, q(1); -pi/2, 0, 0, q(2); pi/2, 0, 0.316, q(3); pi/2, 0.0825, 0, q(4); -pi/2, -0.0825,0.384, q(5); pi/2, 0, 0, q(6); pi/2, 0.088, 0.107, q(7)]; % 计算每个关节的变换矩阵和位置 n = 7; T = eye(4); T_all = cell(n, 1); p_all = zeros(3, n); z_all = zeros(3, n); for i = 1:n alpha = MDH(i, 1); a = MDH(i, 2); d = MDH(i, 3); theta = MDH(i, 4); % 改进DH变换矩阵 Ti = [cos(theta), -sin(theta), 0, a; sin(theta)*cos(alpha), cos(theta)*cos(alpha), -sin(alpha), -d*sin(alpha); sin(theta)*sin(alpha), cos(theta)*sin(alpha), cos(alpha), d*cos(alpha); 0, 0, 0, 1]; T = T * Ti; T_all{i} = T; p_all(:, i) = T(1:3, 4); z_all(:, i) = T(1:3, 3); end % 末端执行器位置 p_ee = p_all(:, end); % 计算几何雅可比 - 修正关节编号对应关系 J_geo = zeros(6, n); for i = 1:n if i == 1 % 关节1:使用基坐标系 p_i = [0; 0; 0]; z_i = [0; 0; 1]; else % 关节i:使用连杆i-1的坐标系 p_i = p_all(:, i); % 改进DH:使用i z_i = z_all(:, i); % 改进DH:使用i end % MATLAB顺序:线速度在前,角速度在后 J_geo(4:6, i) = z_i; J_geo(1:3, i) = cross(z_i, p_ee - p_i); end end function T = forward_kinematics_mdh(q) % 改进DH正运动学 MDH = [0, 0, 0.333, q(1); -pi/2, 0, 0, q(2); pi/2, 0, 0.316, q(3); pi/2, 0.0825, 0, q(4); -pi/2, -0.0825,0.384, q(5); pi/2, 0, 0, q(6); pi/2, 0.088, 0.107, q(7)]; T = eye(4); for i = 1:7 alpha = MDH(i, 1); a = MDH(i, 2); d = MDH(i, 3); theta = MDH(i, 4); Ti = [cos(theta), -sin(theta), 0, a; sin(theta)*cos(alpha), cos(theta)*cos(alpha), -sin(alpha), -d*sin(alpha); sin(theta)*sin(alpha), cos(theta)*sin(alpha), cos(alpha), d*cos(alpha); 0, 0, 0, 1]; T = T * Ti; end end % 

Read more

文心一言 4.0 性能优化技巧

文心一言 4.0 性能优化技巧

引言:为什么要优化文心一言4.0的调用性能? 随着大语言模型在企业级应用中的普及,文心一言4.0凭借其强大的多模态理解、逻辑推理和生成能力,成为了智能客服、内容创作、代码辅助等场景的核心依赖。但在高并发场景下,开发者常常会遇到响应延迟高、调用成功率波动、资源消耗过大等问题——这些问题直接影响用户体验和系统稳定性。 优化文心一言4.0的调用性能,本质上是通过合理的请求设计、资源管理和策略优化,在模型能力和系统效率之间找到平衡。本文将从原理、实操、案例三个维度,详细讲解可落地的性能优化技巧。 原理分析:文心一言4.0的调用性能瓶颈 要优化性能,首先需要理解调用过程中的核心瓶颈: 1. 请求序列化与网络传输:大模型请求通常包含长文本或多模态数据,序列化和跨网络传输会产生显著开销 2. 模型调度与队列等待:高峰期模型服务端会存在请求排队,等待调度的时间可能远大于实际推理时间 3. 生成策略冗余:默认的全量生成、高采样参数会增加模型计算量 4. 资源利用率不足:客户端未充分利用连接池、缓存等机制,导致重复创建连接或重复请求 文心一言4.0提供了丰富的参数控制和调用机制,所有优

Kimi vs 豆包学术助手:AI写作降AI谁更适合中国学生?

Kimi vs 豆包学术助手:AI写作降AI谁更适合中国学生?

Kimi vs 豆包学术助手:AI写作降AI谁更适合中国学生? TL;DR Kimi和豆包都是国产AI的代表,用来辅助论文写作或降AI各有优势:Kimi擅长长文本处理和学术场景,豆包日常对话更自然。但用它们降AI效果有限,本质上还是AI生成AI。真正靠谱的降AI方案是用专业工具,推荐嘎嘎降AI(达标率99.26%)或比话降AI(不达标全额退款)。 国产AI双雄:学生党的新选择 这两年国产AI发展特别快,Kimi和豆包是最被学生群体熟知的两个名字。Kimi是月之暗面开发的,主打长文本处理能力,据说一次能处理20万字;豆包是字节跳动出品的,更像一个全能型AI助手,什么都能聊。作为即将毕业的学生,我一直在思考:这两个工具用来写论文和降AI,到底哪个更靠谱? 于是我做了一次实测对比。测试用的是一篇10000字的课程论文,知网AIGC检测原始AI率是65%。我分别用Kimi和豆包尝试降AI,同时也用嘎嘎降AI和比话降AI作为对照,看看国产通用AI和专业降AI工具之间的差距到底有多大。 Kimi降AI实测 Kimi最大的优势是长文本处理能力。一般的AI处理几千字就要分段,Kim

【LLM】LLaMA架构(RMSNorm+ KV cache+Rotary Positional Encodings+门控FFN+MoE)

【LLM】LLaMA架构(RMSNorm+ KV cache+Rotary Positional Encodings+门控FFN+MoE)

文章目录 * 一、LLaMA架构 * 1. 基本介绍 * 2. 技术路线图:对比Transformer * 3. 思考 * 3.1 为什么LLaMA使用的是Transformer中的Decoder解码器? * 3.2 为什么RoPE只给Q和K做位置编码? * 二、重要组成部分 * 1. Embedding * 2. RMSNorm均方根层归一化 * 2.1 Layer Normalization 和 Batch Normalization 的区别 * 2.2 LN与RMSNorm的区别 * 3. 旋转位置编码Rotary Positional Encodings * 4. Self-Attention(Grouped Multi-Query Attetion with KV cache) * 4.1 基本概念 * 4.2

深入 llama.cpp:llama-server-- 从命令行到HTTP Server(2)

深入 llama.cpp:llama-server-- 从命令行到HTTP Server(2)

前言        llama-server是llama.cpp中用于发布大模型服务的工具。它通过极简的命令行配置,将复杂的模型推理过程封装为通用的 HTTP 接口;在底层,它选择以纯 C++ 编写的 cpp-httplib 作为服务框架的底层。本章分为应用实战与底层架构两部分。首先,我们将介绍不同参数下的大模型服务发布;接着,我们将详细解析 cpp-httplib 在项目中的具体实现,帮助读者掌握该服务端在网络调度层面的运行逻辑。 目录 * 1 应用实战:启动大模型服务 * 2 架构解析:基于cpp-httplib的运行机制 1 应用实战:启动大模型服务        llama-server是一款轻量级、兼容 OpenAI API、用于提供大语言模型服务的 HTTP 服务器。在上节中,我们启动了llama-server,构建了本地的大模型服务。本节将在此基础上,进一步深入llama-server启动过程的参数设置,同时演示如何利用curl工具发起网络请求,以实测并验证服务的接口响应。 1.1 模型服务参数设置        llama-server支持自定义