在机器人领域,触觉一直是个棘手的难题:传统传感器要么分辨率低到摸不清纹理,要么只能测压力却辨不出温度。
近日,清华大学丁文伯团队联合无界智航(Xspark AI)及多所国内外科研机构在《Nature Sensors》上发表的 SuperTac 仿生多模态触觉传感器,直接打破了这个僵局——
借鉴鸽子的多光谱视觉原理,把多光谱成像、摩擦电传感、惯性测量揉进 1mm 的电子皮肤里,不仅能精准识别纹理、材质、温度,还能预判碰撞和滑动,分类准确率超 94%。
让机器人触觉感知第一次有了人类级的细腻度。
01 传统触觉传感器的痛点
在 SuperTac 之前,机器人触觉感知主要分两大技术路线,但都有绕不开的局限:
电子皮肤(e-skin):分辨率和模态难两全
早期电子皮肤靠密集电极阵列实现多模态感知,但电极一多就会出现信号串扰——测压力时温度数据会飘,辨纹理时位置精度又下降。
而且为了塞下更多传感器,皮肤厚度往往超过 5 毫米,贴在机器人手指上既不灵活,又无法捕捉 0.1 毫米级的细微凸起(比如布料纹理)。
视觉触觉传感器:光谱范围被卡脖子
后来出现的视觉触觉传感器(靠光学成像测形变)解决了分辨率问题,能做到亚毫米级精度,但大多只局限在可见光范围。
比如想通过温度区分刚煮好的杯子和室温杯子,或者靠紫外线识别特殊材质;而且多数只能测压力 + 纹理,像振动、距离这些关键信息根本拿不到。
数据解读:多模态信息各说各话
就算个别传感器能同时测压力、温度、纹理,不同模态的数据也像不同语言的报告——压力数据是数值,纹理是图像,温度是热图,没有统一的解读框架,机器人拿到数据也无法综合判断。
比如摸到一个物体,知道它硬、凉、光滑,却分不清是玻璃还是金属。

▲SuperTac 基于触觉大型模型的垃圾分类任务,其中机器人根据人类的指示清洁桌子,清除垃圾并根据垃圾的类型进行分类以进行回收。
而 SuperTac 的创新,正是从这三个痛点切入:用仿生设计突破感知模态限制,用轻薄结构兼顾分辨率与灵活性,再靠专用语言模型打通数据解读。
02 仿生灵感
SuperTac 的核心创意:鸽子的视觉系统比人类更适合触觉感知。
人类只有 3 种视锥细胞,只能感知可见光;而鸽子有 4 种视锥细胞,能看到紫外线,还能靠视网膜里的特殊分子感知磁场,相当于自带多光谱相机 + 指南针。这种全维度信息捕捉的能力,正是机器人触觉需要的。

▲鸽子视网膜的结构包含视锥细胞和视杆细胞。
于是研究将这个原理移植到触觉传感器上,设计出了三层核心结构,总厚度仅 1 毫米:
导电层:既是电极也是透光开关
用 PEDOT:PSS(一种透明导电材料)涂在 TPU 薄膜上,既保证透光性,又能在接触物体时产生摩擦电信号——
不同材质的物体(比如塑料和金属)接触时,产生的电压信号不同,机器人靠这个就能摸出材质差异。
荧光层 + 反射层:多光谱信息接收器
中间层是紫外线荧光油墨,底层是镀银粉末的反射层,配合不同波长的光源(紫外线、可见光、近红外、中红外),就能实现一皮多用:

▲结构设计与传感机制
可调节气压,适应不同物体
此外,传感器内部有个微型气腔,能通过调节气压改变硬度——测软物体(比如海绵)时调低气压,让皮肤更贴合;测硬物体(比如金属块)时调高气压,避免过度形变影响精度。
03 DOVE 模型让触觉会说话
光能采集数据还不够,机器人需要知道这些数据意味着什么。
比如摸到硬、凉、光滑、黄色的物体,要能判断这可能是个金属杯子,适合装水。

▲触觉语言模型的架构
为了解决这个问题,开发了 DOVE 触觉语言模型(85 亿参数),它的核心能力有三个:
多模态数据融合解读
DOVE 能把摩擦电信号(材质)、温度数据、纹理图像、颜色信息整合到一起,生成自然语言描述。
比如触摸一个杯子后,它会输出:这个物体是黄色的,室温,表面有均匀的凸起纹理,靠摩擦电信号判断材质为金属——就像人类触摸后会口头描述一样。

▲SuperTac 与 DOVE 在人机交互(HRI)中的集成示意图。
物体差异对比推理
如果机器人同时触摸两个物体,DOVE 能找出它们的不同:两个物体颜色和温度相近,纹理相似,但材质不同(一个是塑料,一个是金属),因此是不同物体。这种对比能力,让机器人在分拣任务中效率大大提升。

▲上:通过结合外部视觉与接触、滑动及碰撞传感实现物体的稳定抓取;下:融合材质、纹理、颜色与温度信息,并结合触觉语言模型实现触觉信息理解。
联想判断
它还能结合常识推理物体用途,比如摸到 PET 材质(常用于饮料瓶)、黄色、有光滑曲面的物体,会判断:
这可能是一个饮料瓶,适合装液体,日常用来喝水。

▲触觉语言模型示意图及其在触觉信息理解中的应用。
这种感知 + 推理的组合,让机器人不再是只会执行指令的工具,而是能根据触觉信息自主判断操作方式。
04 6 大维度刷新触觉传感器纪录
实验在力、位置、温度、纹理、材质、振动 6 个核心维度进行了测试,全面超越现有传感器:


▲安装了 SuperTac 传感器的机械手用于感知物体的纹理、温度、颜色和材料,并使用我们训练的触觉语言模型将触觉感受解释为语言。
此外,实验还测试了 48 种 U 型、V 型及多边形形状探针的力感知精度。

还有一个很实用的功能是距离感知:靠摩擦电信号的变化,能在 15 厘米内预判物体是否靠近,避免机器人抓取时碰撞;碰撞检测的准确率也有 94%,相当于给机器人加了一层触觉安全气囊。
此外,将 SuperTac 装在两种机器人平台上做了实测:
三指灵巧手
在工业装配场景中,机器人需要抓取不同材质的零件——比如塑料齿轮、金属螺丝、玻璃镜片。
SuperTac 能实时感知压力和材质:抓塑料时用 0.5N 的力,抓金属时用 1N 的力,抓玻璃时用 0.3N 的力,成功率比传统方案提升 30%。

▲配备 SuperTac 的灵巧手 (a) 灵巧手实物图 (b) 机器人手在 UR5 机械臂上的装配示意图
平行夹爪
在家庭服务场景中,机器人需要处理软物体(比如叠衣服、拿面包)和易碎物体(比如杯子、盘子)。
SuperTac 的气压调节功能在这里派上了用场:夹面包时调低气压,让夹爪更软,避免把面包压变形;夹杯子时调高气压,保证抓稳不滑落;而且靠温度感知,能避开刚从微波炉拿出来的热盘子,防止烫伤(传感器本身耐高温,不会损坏)。

▲配备 SuperTac 的平行夹爪 (a) 平行双夹爪实物图 (b) 夹爪在 UR5 机械臂上的装配示意图
05 待解难题
虽然 SuperTac 的突破很显著,但它并非完美,仍有几个需要改进的方向:
微型化:目前还无法装在机器人指尖
现在的 SuperTac 直径约 32 毫米(相当于一枚硬币大小),主要装在机器人的手掌或夹爪上;
而人类的触觉感知主要靠指尖,未来需要把传感器缩小到 5 毫米以下,才能装在机器人手指上,实现更灵活的操作(比如捏起一根针)。
耐用性:长期使用后性能会下降
研究在进行了 8 万次接触测试后,传感器的信号稳定性还能保持,但超过 10 万次后,导电层的 PEDOT:PSS 可能会磨损,导致摩擦电信号减弱;而反射层的银粉末也可能脱落,影响光学成像。
动态场景适应:无法处理快速运动的物体
目前 SuperTac 的采样频率是 1kHz(每秒采集 1000 次数据),对于缓慢接触的物体(如抓取杯子)足够,但如果物体快速运动(如接住掉落的球),可能会出现数据滞后,导致判断不及时。
06 总结
SuperTac 为机器人触觉感知提供了一套新范式:
用一层皮肤 + 多光谱成像实现多种感知,既简化了结构,又提升了性能。
首次让触觉数据从冰冷的数值变成可理解的信息——机器人不再是摸到什么就是什么,而是能结合常识推理物体的用途和操作方式。这种感知 + 认知的结合,是机器人从工具向助手转变的关键一步。
不过也要清醒地认识到,它离人类触觉还有差距——比如人类能靠触觉感知到物体的质感(如丝绸的顺滑、羊毛的柔软),而 SuperTac 目前还只能靠纹理和硬度间接判断。但不可否认,这已经是机器人触觉感知领域的一大步。


