基于 Simulink 的协作机器人末端执行器抓取控制仿真
引言:为什么做末端执行器抓取控制?
协作机器人的核心能力在于精准作业,而末端执行器的抓取控制则是实现物料搬运、装配和分拣的基础。传统位置控制依赖预设轨迹,一旦物体位姿出现误差(如±5mm),极易导致抓取失败或滑落;纯力控虽然能适应偏差,却可能因力度过大损坏脆性物体。
我们采用视觉定位 + 阻抗力控 + 多指协调的方案,旨在实现毫米级定位与牛顿级力控的结合。这套方案不仅能提升抓取成功率,还能兼容刚性、柔性及不规则形状的物体,同时确保人机协作时的接触安全。
核心挑战
在实际工程中,我们需要解决几个关键问题:视觉识别受光照遮挡影响导致的位姿估计误差、接触力波动引发的抓取抖动、多关节手指的力分配平衡,以及传送带移动等动态场景下的实时轨迹调整。
核心原理:定位 - 规划 - 执行逻辑
1. 抓取控制架构
视觉定位(PBVS)
我们采用基于位置的视觉伺服(PBVS)。通过相机识别物体上的 ArUco 标记,结合手眼标定结果,计算出物体在基坐标系下的 3D 位姿(位置 [x,y,z] + 姿态 [roll,pitch,yaw])。相比图像伺服(IBVS),PBVS 在静态抓取场景下精度更高且更稳定。
抓取规划
根据物体形状生成手指接触点。例如圆柱体抓取中心,方块抓取顶面顶点。策略上需确保力闭合,即多指合力能平衡物体重力。
阻抗力位混合控制
这是实现柔顺接触的关键。利用阻抗模型 $F=K(x_d-x)+B(\dot{x}_d-\dot{x})$,将位置误差转换为力指令。接近阶段用位置控制,接触阶段切换为力控制维持夹持力,抓取阶段则进行力位混合以稳定状态。
2. 数学模型
- 视觉位姿估计:$T_{obj}^{base} = T_{cam}^{base} \cdot T_{obj}^{cam}$ 其中 $T_{cam}^{base}$ 是手眼标定结果,$T_{obj}^{cam}$ 是视觉识别输出。
- 阻抗控制律:$\tau = J^T(q)[K(x_d-x)+B(\dot{x}_d-\dot{x})] + M(q)\ddot{q}_d + C(q,\dot{q})\dot{q} + G(q)$ 这里 $J(q)$ 是雅可比矩阵,$K/B$ 为刚度阻尼参数。
应用场景:UR5e 抓取不规则物体
本次仿真设定如下:
- 机器人:UR5e(6 关节,重复定位精度±0.03mm)
- 夹爪:Robotiq 2F-85(集成力传感器)
- 视觉:Basler acA2500 相机(30Hz)
- 目标:直径 50mm 圆柱与边长 50mm 方块(贴有 ArUco 标记)
- 工况:物体置于速度 0.1m/s 的传送带上,突发偏移±10mm
Simulink 建模步骤
1. 主电路搭建
使用 Simscape Multibody 建立 UR5e 动力学模型,配合 Robotics System Toolbox 处理运动学。核心模块包括夹爪模型、视觉传感器接口、抓取规划器及阻抗控制器。
| 模块 | 作用 | 关键参数 |
|---|---|---|
UR5e Dynamics | 机器人动力学 | DH 参数配置,最大负载 5kg |
End-Effector | 夹爪模型 | 行程 0~85mm,力传感器噪声 0.1N |

