国内首篇!融合语言模型的多模态触觉传感器,推动机器人触觉迈向人类水平

国内首篇!融合语言模型的多模态触觉传感器,推动机器人触觉迈向人类水平

本研究为机器人触觉提供了多个富有前景的发展方向:硬件方面通过传感器微型化、低功耗芯片及高集成封装,提升机器人手内操作的灵活性并解决高负载下的散热稳定性难题。

论文第一作者为清华大学博士、南洋理工大学博士后李寿杰,清华大学博士生吴同和人工智能硕士生徐建乐。论文通讯作者包括清华大学深圳国际研究生院副教授丁文伯,大连理工大学教授解兆谦,新加坡国立大学助理教授吴昌盛和香港城市大学教授于欣格。

随着机器人技术从「预设程序执行」向「具身智能交互」跨越,触觉感知作为理解物体属性、实现精细操作的核心感测方式,其重要性日益凸显,但当前系统在感知维度、分辨率及信号解读能力上仍远逊于人类,导致机器人往往处于「有感无知」的状态。

在此背景下,清华大学深圳国际研究生院丁文伯团队联合无界智航(Xspark AI)及多所国内外科研机构,从鸽子卓越的多光谱视觉和非成像感知机制中获得灵感,研发出了一种仿生多模态触觉传感器 SuperTac。

该系统将多光谱成像、摩擦电感测与惯性测量融为一体,并通过构建 8.5B 参数的触觉语言模型 DOVE,实现了触觉信号从底层感知到高层语义推理的突破。

相关成果作为封面元素发表于《Nature Sensors》第一期,也是国内以第一单位在该期刊发表的首篇,标志着机器人触觉感知向「人类水平」迈出了关键一步。

  • 论文标题:Biomimetic multimodal tactile sensing enables human-like robotic perception
  • 论文链接:https://www.nature.com/articles/s44460-025-00006-y

图 1 Nature Sensors 第一期封面图,SuperTac 作为核心元素在封面上进行了展示(右下角)

一、仿生逻辑:

从鸽子眼球到多模态感知架构

鸽子拥有自然界最复杂的感知系统之一,SuperTac 的硬件设计对应了其生物学特征。

图 2 仿生学设计:受鸽眼启发的高分辨率多模态触觉传感器

多光谱视觉的迁移:从视锥细胞到多通道相机

鸽子的视网膜包含多种视锥细胞,不仅能感知可见光,还拥有人类不具备的紫外线(UV)感知能力。

SuperTac 集成了小型化的多光谱成像模块,覆盖了从紫外(390 nm)、可见光(400–700 nm)到近红外(940 nm)及中红外(5.5–14.0 μm)的超宽频段。

通过引入超宽频段成像,机器人能够在单一交互中同时解析热辐射、荧光位移等深层物理信息,实现了对物体形状、纹理、颜色和温度的全面表征。

非成像感知的映射:从地磁感应到 TENG / IMU

鸽子能通过视网膜中的隐花色素等分子感知地磁场,这是一种不依赖图像的物理感知。SuperTac 在 1 mm 厚的皮肤内嵌入了摩擦纳米发电机(TENG)和惯性测量单元(IMU)。

TENG 利用接触起电原理,根据不同物体的电负性差异识别材质(准确率 95%),并实现 15 cm 内的接近觉感知。IMU 模拟生物的本体感受,捕捉 0–60 Hz 的振动及碰撞信号。通过将摩擦电与惯性信号与光场调制耦合,传感器无需密集电极阵列即可扩展出对材质极性、震动及空间姿态的感知能力。

二、核心机制:

光场调制的「智能感知层」

SuperTac 的核心竞争力在于其厚度仅为 1 mm 的光场调制多层感知皮肤。皮肤最外层的导电层采用透明的 PEDOT:PSS,通过丝网印刷技术在具有优异拉伸性能的 TPU 薄膜上形成涡旋线电极设计。这种涡旋设计能提供均匀的电学信号,结合摩擦起电机制,使皮肤在接触不同电负性物体时产生截然不同的电学反馈,从而实现高精度的材质分类与 15 cm 范围内的接近觉探测。

图 3 多光谱机理

在导电层之下,单向透视反射层充当了光学开关,其透明度受两侧光强差调节。当内部 LED 开启形成「触觉模式」时,内侧光强占据主导,反射层变为不透明状态,CMOS 单元聚焦捕捉皮肤表面的微观纹理与形变;当内部光源关闭,反射层随之变为透明,允许外部可见光透射,使传感器能够直接获取物体的 RGB 颜色信息。

紧邻其下的紫外荧光标记层则利用在近红外波段不可见但在紫外光下激发的荧光标记,实现了形变监测与物体纹理检测的解耦,确保在复杂抓取过程中能够同步捕捉切向滑动与表面细节。

图 4 相关测试指标

三、触觉语言大模型:

8.5B 参数背后的多模态融合架构

为了构建跨模态物理信号与自然语言空间的统一表征对齐,DOVE 采用了分层架构设计,其底层骨干由预训练的大语言模型 Vicuna 构成,为系统提供了强大的语言理解与逻辑推理基础。

为了处理极其复杂的触觉输入,系统并行集成了四组预训练的 CLIP(对比语言—图像预训练)模型作为模态编码器,将图像化的触觉特征(包括颜色、纹理、温度和材质信号)提取为深层特征向量。

图 5 触觉语言大模型 DOVE

DOVE 的训练通过三阶段策略实现从底层感知到高层认知的递进:首先利用 CLIP 将异构传感器信号转化为通用的图像表征;随后通过投影层将触觉特征精准对齐至语言模型空间;最后针对 Vicuna 骨干网络进行微调,使其能够结合常识对触觉指令进行复杂推理。

四、应用场景:

从物理触碰到语义逻辑的跃迁

SuperTac 提供的多模态底层数据通过 DOVE 模型的深度解析,成功实现了从单纯的「物理感知」向高层「语义认知」的跨越,赋予了机器人类人的具身交互能力。

图 6 SuperTac + DOVE 的应用场景

在基础的识别维度,DOVE 能够实时融合传感器采集的异构多模态数据,为操纵目标建立起全方位的「物理画像」。例如,在抓取实验中,面对一个未知杯子,DOVE 能准确地将其感官印象转化为人类可理解的语言:「黄色,室温,表面具有规律排布的凸起纹理,判定为金属材质」。

最高层级的应用体现在常识指引下的功能决策与推理。DOVE 不仅解析当前的物理数据,还能将实时的触觉反馈与预训练的大模型常识相结合,从而推断物体的潜在功能并做出逻辑决策。

在极具挑战性的垃圾分拣任务中,这一能力得到了充分验证:当机器人接触到乱序堆放的杂物时,DOVE 能够根据触觉反馈进行逻辑建模。例如,它会推论道:「该物体具有典型的 PET 物理特征,结合其轻薄的结构,判定为废弃的塑料饮料瓶;基于环保常识,建议将其放入可回收垃圾桶」。

五、未来方向

本研究为机器人触觉提供了多个富有前景的发展方向:硬件方面通过传感器微型化、低功耗芯片及高集成封装,提升机器人手内操作的灵活性并解决高负载下的散热稳定性难题;认知层面则依托 DOVE 模型的模态无关框架,通过优化传感器配置与专用数据集来持续增强系统的泛化能力,从而为实现自然、高效的人机交互奠定坚实基础。

Read more

CarelessWhisper: Turning Whisper into a Causal Streaming Model——将 Whisper 转变为因果流式模型

CarelessWhisper: Turning Whisper into a Causal Streaming Model——将 Whisper 转变为因果流式模型

这篇题为《CarelessWhisper: Turning Whisper into a Causal Streaming Model》的研究论文,提出了一种将非因果的Transformer语音识别模型(如Whisper)改造为低延迟、实时流式语音识别模型的方法。以下是其主要研究内容的概括总结: 一、研究背景与问题 * 现状:Whisper 等先进语音识别模型在离线转录中表现出色,但由于其编码器的非因果性(需依赖未来上下文),无法直接用于低延迟实时流式转录。 * 挑战:现有流式化方法存在计算效率低、延迟高、需额外模块或多轮解码等问题。 二、核心方法 1. 因果编码器改造 * 在 Whisper 的编码器中引入因果掩码(causal masking),使其仅依赖过去和当前语音帧,不依赖未来信息。 * 提出分块注意力机制,支持以固定块大小(如 40、100、300 ms)逐步处理语音流。 2. 轻量级微调策略 * 使用 LoRA(

怎么查AI重复率?4步轻松搞定+ AIGC检测工具实测指南

怎么查AI重复率?4步轻松搞定+ AIGC检测工具实测指南

当ChatGPT、Claude等AI工具成为学术写作的辅助手段时,一个新的问题开始困扰学生和研究者:如何确认自己的论文中AI生成内容的占比?AI重复率(又称AIGC率)的检测不仅关系到学术诚信,更可能影响论文的最终通过。很多人尝试用常规查重工具,但发现它们无法精准识别AI生成的文本——要么误判原创内容,要么漏掉AI生成的段落。这时候,选择一款专门针对AIGC率查询的工具就变得至关重要。PaperPass作为深耕学术查重领域近20年的平台,其最新升级的AIGC检测功能正好解决了这一痛点,帮助用户快速、准确地识别论文中的AI生成内容。 什么是AI重复率(AIGC率)? AI重复率并非传统意义上的文本复制比,而是指论文中由人工智能生成的内容占总字数的比例。随着AIGC技术的普及,学术机构越来越关注AI工具的合理使用边界。《2026年全球学术诚信报告》显示,超过62%的高校已将AI生成内容的未标注列为学术不端行为。但AI生成的文本往往没有明显的“复制痕迹”,常规查重工具依赖的字词匹配算法对此束手无策。这就像用普通X光片无法诊断深层组织病变一样,需要更精准的“医学影像技术”来识别AI生成的

【AIGC】冷启动数据与多阶段训练在 DeepSeek 中的作用

【AIGC】冷启动数据与多阶段训练在 DeepSeek 中的作用

博客主页: [小ᶻ☡꙳ᵃⁱᵍᶜ꙳]本文专栏: AIGC |ChatGPT 文章目录 * 💯前言 * 💯冷启动数据的作用 * 冷启动数据设计 * 💯多阶段训练的作用 * 阶段 1:冷启动微调 * 阶段 2:推理导向强化学习(RL) * 阶段 3:拒绝采样与监督微调(SFT) * 阶段 4:多场景强化学习 * 💯代码示例:冷启动数据与多阶段训练的实现 * 1. 冷启动微调阶段 * 作用与应用: * 2. 推理导向的强化学习阶段 * 作用与应用: * 3. 拒绝采样与监督微调阶段 * 作用与应用: * 4. 多场景强化学习 * 作用与应用: * 总体流程 * DeepSeek 中的应用 * 💯总结 💯前言 在人工智能领域,深度学习模型的训练和优化往往需要大量的标注数据和计算资源。然而,面对复杂任务时,即使是最先进的技术和大量的训练数据也未必能够保证模型的最优表现。DeepSeek

ima Copilot任务模式PPT生成功能全流程评测

ima Copilot任务模式PPT生成功能全流程评测

🚀 核心功能概述(背景) ima Copilot V2.0 更新亮点 * 核心新增功能:任务模式支持生成PPT,并可免费下载。 * 功能定位:扩展知识库的输出格式,实现“收集-整理-应用”知识闭环在演示场景的落地。 * 发布状态:已于2025年12月30日正式上线,目前处于任务模式内测阶段。 📝 功能操作全流程(步骤) (一) 入口路径   1. 模式切换:在首页中间导航栏选择任务模式。 2. 主题输入:在文本框中描述PPT主题,例如“大禹智库AI智能体培训”。 功能选择:点击“生成报告”下拉菜单,选择生成PPT(该菜单还包含“生成报告”和“生成播客”选项)。   (二) 任务配置环节 1. 知识库关联:通过@符号引用特定知识库,例如“@大禹智库知识库”。 2. 补充信息确认: