清华大学发布 SuperTac 仿生多模态触觉传感器,感知精度接近人类
清华大学研究团队联合多家机构在《Nature Sensors》发表 SuperTac 仿生多模态触觉传感器。该传感器借鉴鸽子视觉原理,集成多光谱成像、摩擦电传感等技术,厚度仅 1mm。配合 DOVE 触觉语言模型,能融合解读压力、温度、纹理等多模态数据,实现物体识别与推理。实验显示其在力、位置、温度等维度刷新纪录,适用于灵巧手与夹爪场景。目前仍面临微型化、耐用性及动态场景适应等挑战。

清华大学研究团队联合多家机构在《Nature Sensors》发表 SuperTac 仿生多模态触觉传感器。该传感器借鉴鸽子视觉原理,集成多光谱成像、摩擦电传感等技术,厚度仅 1mm。配合 DOVE 触觉语言模型,能融合解读压力、温度、纹理等多模态数据,实现物体识别与推理。实验显示其在力、位置、温度等维度刷新纪录,适用于灵巧手与夹爪场景。目前仍面临微型化、耐用性及动态场景适应等挑战。

在 SuperTac 之前,机器人触觉感知主要分两大技术路线,但都有绕不开的局限:
早期电子皮肤靠密集电极阵列实现多模态感知,但电极一多就会出现'信号串扰'——测压力时温度数据会飘,辨纹理时位置精度又下降。
而且为了塞下更多传感器,皮肤厚度往往超过 5 毫米,贴在机器人手指上既不灵活,又无法捕捉 0.1 毫米级的细微凸起(比如布料纹理)。
后来出现的视觉触觉传感器(靠光学成像测形变)解决了分辨率问题,能做到亚毫米级精度,但大多只局限在可见光范围。
比如想通过温度区分刚煮好的杯子和室温杯子,或者靠紫外线识别特殊材质;而且多数只能测压力 + 纹理,像振动、距离这些关键信息根本拿不到。
就算个别传感器能同时测压力、温度、纹理,不同模态的数据也像'不同语言的报告'——压力数据是数值,纹理是图像,温度是热图,没有统一的解读框架,机器人拿到数据也无法'综合判断'。
比如摸到一个物体,知道它硬、凉、光滑,却分不清是玻璃还是金属。
SuperTac 的创新,正是从这三个痛点切入:用仿生设计突破感知模态限制,用轻薄结构兼顾分辨率与灵活性,再靠专用语言模型打通数据解读。
SuperTac 的核心创意:鸽子的视觉系统比人类更适合触觉感知。
人类只有 3 种视锥细胞,只能感知可见光;而鸽子有 4 种视锥细胞,能看到紫外线,还能靠视网膜里的特殊分子感知磁场,相当于'自带多光谱相机 + 指南针'。这种'全维度信息捕捉'的能力,正是机器人触觉需要的。
于是研究将这个原理'移植'到触觉传感器上,设计出了三层核心结构,总厚度仅 1 毫米:
用 PEDOT:PSS(一种透明导电材料)涂在 TPU 薄膜上,既保证透光性,又能在接触物体时产生摩擦电信号——
不同材质的物体(比如塑料和金属)接触时,产生的电压信号不同,机器人靠这个就能'摸出'材质差异。
中间层是紫外线荧光油墨,底层是镀银粉末的反射层,配合不同波长的光源(紫外线、可见光、近红外、中红外),就能实现'一皮多用':
![图片]
此外,传感器内部有个微型气腔,能通过调节气压改变'硬度'——测软物体(比如海绵)时调低气压,让皮肤更贴合;测硬物体(比如金属块)时调高气压,避免过度形变影响精度。
光能采集数据还不够,机器人需要知道'这些数据意味着什么'。
比如摸到'硬、凉、光滑、黄色'的物体,要能判断'这可能是个金属杯子,适合装水'。
![图片]
为了解决这个问题,开发了 DOVE 触觉语言模型(85 亿参数),它的核心能力有三个:
DOVE 能把摩擦电信号(材质)、温度数据、纹理图像、颜色信息整合到一起,生成自然语言描述。
比如触摸一个杯子后,它会输出:'这个物体是黄色的,室温,表面有均匀的凸起纹理,靠摩擦电信号判断材质为金属'——就像人类触摸后会口头描述一样。
![图片]
如果机器人同时触摸两个物体,DOVE 能找出它们的不同:'两个物体颜色和温度相近,纹理相似,但材质不同(一个是塑料,一个是金属),因此是不同物体'。这种对比能力,让机器人在分拣任务中效率大大提升。
![图片]
它还能结合常识推理物体用途,比如摸到 PET 材质(常用于饮料瓶)、黄色、有光滑曲面的物体,会判断:
'这可能是一个饮料瓶,适合装液体,日常用来喝水'。
![图片]
这种'感知 + 推理'的组合,让机器人不再是'只会执行指令的工具',而是能根据触觉信息自主判断操作方式。
实验在力、位置、温度、纹理、材质、振动 6 个核心维度进行了测试,全面超越现有传感器:
![图片]
![图片]
▲安装了 SuperTac 传感器的机械手用于感知物体的纹理、温度、颜色和材料,并使用我们训练的触觉语言模型将触觉感受解释为语言。
此外,实验还测试了 48 种 U 型、V 型及多边形形状探针的力感知精度。
![图片]
还有一个很实用的功能是距离感知:靠摩擦电信号的变化,能在 15 厘米内预判物体是否靠近,避免机器人抓取时碰撞;碰撞检测的准确率也有 94%,相当于给机器人加了一层'触觉安全气囊'。
此外,将 SuperTac 装在两种机器人平台上做了实测:
在工业装配场景中,机器人需要抓取不同材质的零件——比如塑料齿轮、金属螺丝、玻璃镜片。
SuperTac 能实时感知压力和材质:抓塑料时用 0.5N 的力,抓金属时用 1N 的力,抓玻璃时用 0.3N 的力,成功率比传统方案提升 30%。
![图片]
在家庭服务场景中,机器人需要处理软物体(比如叠衣服、拿面包)和易碎物体(比如杯子、盘子)。
SuperTac 的气压调节功能在这里派上了用场:夹面包时调低气压,让夹爪更'软',避免把面包压变形;夹杯子时调高气压,保证抓稳不滑落;而且靠温度感知,能避开刚从微波炉拿出来的热盘子,防止烫伤(传感器本身耐高温,不会损坏)。
![图片]
虽然 SuperTac 的突破很显著,但它并非完美,仍有几个需要改进的方向:
现在的 SuperTac 直径约 32 毫米(相当于一枚硬币大小),主要装在机器人的手掌或夹爪上;
而人类的触觉感知主要靠指尖,未来需要把传感器缩小到 5 毫米以下,才能装在机器人手指上,实现更灵活的操作(比如捏起一根针)。
研究在进行了 8 万次接触测试后,传感器的信号稳定性还能保持,但超过 10 万次后,导电层的 PEDOT:PSS 可能会磨损,导致摩擦电信号减弱;而反射层的银粉末也可能脱落,影响光学成像。
目前 SuperTac 的采样频率是 1kHz(每秒采集 1000 次数据),对于缓慢接触的物体(如抓取杯子)足够,但如果物体快速运动(如接住掉落的球),可能会出现数据滞后,导致判断不及时。
SuperTac 为机器人触觉感知提供了一套'新范式':
用'一层皮肤 + 多光谱成像'实现多种感知,既简化了结构,又提升了性能。
首次让触觉数据从'冰冷的数值'变成'可理解的信息'——机器人不再是'摸到什么就是什么',而是能结合常识推理物体的用途和操作方式。这种'感知 + 认知'的结合,是机器人从'工具'向'助手'转变的关键一步。
不过也要清醒地认识到,它离人类触觉还有差距——比如人类能靠触觉感知到物体的'质感'(如丝绸的顺滑、羊毛的柔软),而 SuperTac 目前还只能靠纹理和硬度间接判断。但不可否认,这已经是机器人触觉感知领域的一大步。

微信公众号「极客日志」,在微信中扫描左侧二维码关注。展示文案:极客日志 zeeklog
使用加密算法(如AES、TripleDES、Rabbit或RC4)加密和解密文本明文。 在线工具,加密/解密文本在线工具,online
生成新的随机RSA私钥和公钥pem证书。 在线工具,RSA密钥对生成器在线工具,online
基于 Mermaid.js 实时预览流程图、时序图等图表,支持源码编辑与即时渲染。 在线工具,Mermaid 预览与可视化编辑在线工具,online
将字符串编码和解码为其 Base64 格式表示形式即可。 在线工具,Base64 字符串编码/解码在线工具,online
将字符串、文件或图像转换为其 Base64 表示形式。 在线工具,Base64 文件转换器在线工具,online
将 Markdown(GFM)转为 HTML 片段,浏览器内 marked 解析;与 HTML 转 Markdown 互为补充。 在线工具,Markdown 转 HTML在线工具,online