NeurIPS 2023|浙大&上海AI Lab&华为联合发表--跨模态泛化的多模态统一表示

NeurIPS 2023|浙大&上海AI Lab&华为联合发表--跨模态泛化的多模态统一表示

NeurIPS 2023|浙大&上海AI Lab&华为联合发表--跨模态泛化的多模态统一表示

爱学习的墨小呆  2024年10月05日 10:00 英国

www.zeeklog.com  - NeurIPS 2023|浙大&上海AI Lab&华为联合发表--跨模态泛化的多模态统一表示

点击上方蓝字关注我们

www.zeeklog.com  - NeurIPS 2023|浙大&上海AI Lab&华为联合发表--跨模态泛化的多模态统一表示
www.zeeklog.com  - NeurIPS 2023|浙大&上海AI Lab&华为联合发表--跨模态泛化的多模态统一表示

论文链接:

https://papers.neurips.cc/paper_files/paper/2023/file/c89f09849eb5af489abb122394ff0f0b-Paper-Conference.pdf

代码链接:

https://github.com/haihuangcode/CMG

简介

多模态表示学习中的现有方法更多地关注粗粒度对齐或依赖于来自不同模态的信息完全对齐的假设,然而,在现实场景中很难实现完全一致的信息对齐。 因此,作者提出一种称为跨模态泛化(CMG)的新任务,解决在预训练期间从成对多模态数据中学习统一离散表示的挑战。在下游任务中,当仅标记一种模态时,模型可以在其他模态中实现零样本泛化能力。 该模型称为Uni-Code,其中包含两个关键贡献:对偶跨模态信息解偶(DCID)模块多模态指数移动平均(MM-EMA),以实现模态之间的双向监督,并在共享的离散潜在空间中对齐语义等有效信息,从而实现多模态序列的细粒度统一表示。在预训练过程中,文中研究了各种模态组合,包括视听、音频-文本以及视听-文本的三模态组合。在各种下游任务(即跨模态事件分类、定位、跨模态检索、基于查询的视频分割和跨数据集事件定位)的广泛实验证明了提出的方法的有效性。

研究动机

www.zeeklog.com  - NeurIPS 2023|浙大&上海AI Lab&华为联合发表--跨模态泛化的多模态统一表示

如图1所示,无约束视频中的视觉信息包括喵叫和狗吠事件,而音频信息包括女人说话和狗吠事件。直接应用以前的方法会导致缺乏共享语义的多模态信息的不准确映射。为了解决这一局限性,文中主要关注多模态序列的细粒度、统一表示的实现。从两个关键方面解决这个新问题:

1)跨不同模态提取具有相同语义的信息,同时减轻模态特定细节的影响;

2)使用统一的码本以共享语义表示这些不同的模态。之前的大多数工作主要关注第二个方面,而忽略了第一个方面的重要性,文中认为这对于实现跨模态泛化至关重要。

问题定义——跨模态泛化任务

给定一组成对的多模态数据 ,大小为 N,其中 A、B、C 等代表不同的模态,模态泛化(CMG)任务旨在在预训练阶段将这些不同的模态映射到统一的离散空间中,使离散的潜在代码能够在具有相同语义的不同模态之间共享。随后,在下游任务中,当只有一种模态(例如模态 A)有注释信息时,模型可以基于预训练过程中获得的共享离散空间将从 A 模态学到的知识转移到其他模态(例如模态 B 和 C)。训练以实现零样本泛化能力

统一表示学习

与之前简单地从成对模态中提取信息然后直接映射的工作不同,作者认为统一表示的成功在于提取模态不可知的语义特征。因此,从两个角度实现这一目标:首先,引入一个 DCID 模块,旨在提取细粒度的语义信息并将其与每个模态内相应的模态特定信息分开。其次,通过VQ-VAE将提取的语义特征压缩为离散变量,通过重构损失确保压缩后的离散变量仍然可以包含原始语义信息。为了简单起见,文中以两种方式为例来说明该过程。图 2 给出了所提出方法的框架。

www.zeeklog.com  - NeurIPS 2023|浙大&上海AI Lab&华为联合发表--跨模态泛化的多模态统一表示

对偶跨模态信息解偶

DCID 模块包含两部分:每个模态中模态不可知的语义特征和模态特定特征之间的互信息(MI) 最小化(CLUB),以及跨不同模态的模态不可知的语义特征之间的 MI 最大化(Cross-CPC)。

基于CLUB的MI最小化: 与尝试优化MI下界的方法(例如InfoNCE和MINE)相比,CLUB可以有效优化MI上界,在信息解偶方面表现出优越的优势。给定两个变量 x 和 y,CLUB 的目标函数定义为:

www.zeeklog.com  - NeurIPS 2023|浙大&上海AI Lab&华为联合发表--跨模态泛化的多模态统一表示

其中 是给定 x 的 y 的真实后验的变分近似,并且可以通过网络 θ 进行参数化。我们使用 CLUB 来优化语义特征  和模态特定特征 ,  之间的 MI 上界,将  修改为时间版本:

www.zeeklog.com  - NeurIPS 2023|浙大&上海AI Lab&华为联合发表--跨模态泛化的多模态统一表示

预训练时,近似网络和主网络交替优化。最后,可以减少每种模态中语义信息和模态特定信息之间的相关性。然而,仅仅使用 CLUB 最小化互信息对模型识别相关语义特征提出了挑战。鉴于配对的多模态信息可以提供相互指导并充当彼此的监督信号,作者设计了Cross-CPC 方法来缓解这个问题。

Corss-CPC 实现 MI 最大化: 对比预测编码(CPC)可以通过使用自回归模型预测未来样本来最大化序列中相邻项目之间的互信息,已广泛应用于自监督学习。而对于人类来说,我们不仅可以根据当前的模态预测后续场景,还能够关联其他模态中可能发生的潜在情况。例如,人们可以根据当前观看的视频片段或阅读文本推断即将到来的听觉信息,或者通过感知音频部分来想象后续场景。受此启发,文中将 CPC 扩展到跨模态压缩预测。给定语义特征,,K 个步骤的预测和随机时间矩 ,首先使用两个单层单向 LSTM 来总结所有 , 的信息并获得两个上下文表示为

www.zeeklog.com  - NeurIPS 2023|浙大&上海AI Lab&华为联合发表--跨模态泛化的多模态统一表示

对于模态 A,首先从模态 B 中选择一组 N-1 个随机负样本和一个正样本  的集合 ,然后使用  来预测模态 B 中的第 k 个未来步骤 ,并且模态 A 的 InfoNCE 损失可以优化为:

www.zeeklog.com  - NeurIPS 2023|浙大&上海AI Lab&华为联合发表--跨模态泛化的多模态统一表示

其中 是不同步骤 k 的线性投影矩阵。模态 B 的优化  反之亦然。在此基础上,可以通过细粒度的跨模态预测相互提取跨不同模态的具有相同语义的特征。

多模态指数移动平均

MM-EMA允许不同的模态迭代地充当师生并在量化过程中相互更新。首先,使用交叉注意力从相反模态中提取相关信息,以模态A为例:,其中是查询,是键和值。向量包含从 派生的语义信息,与 表现出很强的相关性,同时还保留了模态 B 的内在属性。因此,它可以作为 EMA 期间促进模态 A 与模态 B 对齐的中间程序。

给定一个码向量 ,可获得模态  的 个语义向量和模态 的  个语义向量,并量化为 :

www.zeeklog.com  - NeurIPS 2023|浙大&上海AI Lab&华为联合发表--跨模态泛化的多模态统一表示

承诺损失可以使用码向量(从 量化)作为教师,引导编码器不仅逼近 ,而且收敛到 与a一定的比例。在训练过程中,潜在空间中不同模态之间的距离逐渐减小。

www.zeeklog.com  - NeurIPS 2023|浙大&上海AI Lab&华为联合发表--跨模态泛化的多模态统一表示

训练和下游任务

预训练框架的全部目标是所有上述目标函数的组合:

www.zeeklog.com  - NeurIPS 2023|浙大&上海AI Lab&华为联合发表--跨模态泛化的多模态统一表示

其中是,促进模态之间的对齐。除  外,所有这些目标都整合了两种模态。经过训练,可以获得一个统一的离散潜在空间。

部分实验结果

该模型与最先进的方法在两个下游任务(跨模态事件分类和定位)上进行比较,所有这些模型都是使用视听模态在三种不同大小的数据集上进行预训练的。如表 1 所示,提出的方法在三种设置上可以优于所有以前的工作。基线结果表明,在没有任何约束的情况下,模型在预训练期间学习不同模态之间的对齐关系具有挑战性,导致下游任务的性能不佳。此外,实验结果还表明,在这种不受约束的视听对齐中仅采用这些最先进的方法具有相当大的局限性。然而,当与提出的 DCID 模块合并时,这些模型在下游任务中表现出显著的提升。这进一步表明文中提出的 DCID 可以有效地解耦不同模态的语义信息。

www.zeeklog.com  - NeurIPS 2023|浙大&上海AI Lab&华为联合发表--跨模态泛化的多模态统一表示

与之前只能将两种模态对齐在一起的工作相比,所提出方法可以解开并对齐三种模态的语义信息,如表3所示。从结果可以看出,删除这些模块将导致预训练模型在下游任务上的性能。但是,与两种模态的统一表示相比,去除这些模块导致模型性能的下降较小。文中认为原因是第三种模态的引入可以促进其他两种模态相互接近,并且在三种模态上预训练的模型的性能显著高于在两种模态上预训练的模型,这也说明这一点。

www.zeeklog.com  - NeurIPS 2023|浙大&上海AI Lab&华为联合发表--跨模态泛化的多模态统一表示
www.zeeklog.com  - NeurIPS 2023|浙大&上海AI Lab&华为联合发表--跨模态泛化的多模态统一表示

致谢作者,关于论文的详细实施过程和具体解释请阅读论文原文哦~❤️❤️

www.zeeklog.com  - NeurIPS 2023|浙大&上海AI Lab&华为联合发表--跨模态泛化的多模态统一表示
www.zeeklog.com  - NeurIPS 2023|浙大&上海AI Lab&华为联合发表--跨模态泛化的多模态统一表示

喜欢的话,请别忘记点赞👍➕关注哦

www.zeeklog.com  - NeurIPS 2023|浙大&上海AI Lab&华为联合发表--跨模态泛化的多模态统一表示
www.zeeklog.com  - NeurIPS 2023|浙大&上海AI Lab&华为联合发表--跨模态泛化的多模态统一表示

多模态机器学习与大模型

多模态机器学习与大模型 致力于推荐、分享、解读多模态机器学习相关的前沿论文成果,讨论大语言模型先进技术,助力AI研究者进步。 合作交流请+V:Multimodal2024,谢谢❤️

3篇原创内容

公众号

www.zeeklog.com  - NeurIPS 2023|浙大&上海AI Lab&华为联合发表--跨模态泛化的多模态统一表示
www.zeeklog.com  - NeurIPS 2023|浙大&上海AI Lab&华为联合发表--跨模态泛化的多模态统一表示

推荐阅读

www.zeeklog.com  - NeurIPS 2023|浙大&上海AI Lab&华为联合发表--跨模态泛化的多模态统一表示

多模态学习35

大语言模型30

NeurIPS1

Transformer8

对比学习5

多模态学习 · 目录

上一篇TPAMI 2024 |多模态学习最新综述!普林斯顿大学、武汉大学等从数据视角解读多模态学习下一篇ECCV 2024 | 破解多模态学习:单模态模型联合嵌入助力缺失模态预测新突破!

Read more

Go 语言学习总结(2)—— Go 语言开发规范

Go 语言学习总结(2)—— Go 语言开发规范

前言 Go 语言是一种强类型、编译型的语言,在开发过程中,代码规范是尤为重要的,一个小小的失误可能会带来严重的事故,拥有一个良好的 Go 语言开发习惯是尤为重要的,遵守开发规范便于维护、便于阅读理解和增加系统的健壮性。我们以下约束和规范分为三个等级,分别是:【强制】、【推荐】、【参考】。 一、编码相关 【强制】代码风格规范遵循 go 官方标准:,请使用官方 golint  进行风格静态分析; 【强制】代码格式规范依照 gofmt,请安装相关 IDE 插件,在保存代码或者编译时,自动将源码通过 gofmt 做格式化处理,保证团队代码格式一致(比如空格,递进等); 【强制】业务处理代码中不能开 goroutine,此举会导致 goroutine 数量不可控,容易引起系统雪崩,如果需要启用 goroutine 做异步处理,请在初始化时启用固定数量

By Ne0inhk
Rust 学习总结(2)—— 2021 年 Rust 行业调研报告

Rust 学习总结(2)—— 2021 年 Rust 行业调研报告

前言 Rust 语言是一门通用系统级编程语言,无GC且能保证内存安全、并发安全和高性能而著称。自2008年开始由 Graydon Hoare 私人研发,2009年得到 Mozilla 赞助,2010年首次发布 0.1.0 版本,用于Servo 引擎的研发,于 2015年5月15号发布 1.0 版本。自发布以来,截止到2021 年的今天,经历六年的发展,Rust 得到稳步上升,已逐渐趋于成熟稳定。至 2016 年开始,截止到 2021年,Rust 连续五年成为。 2021年 2 月 9 号,Rust 基金会宣布成立。华为、AWS、Google、微软、Mozilla、

By Ne0inhk
Kubernetes学习总结(18)—— Kubernetes 容器网络

Kubernetes学习总结(18)—— Kubernetes 容器网络

前言 在 Kubernetes 中要保证容器之间网络互通网络至关重要。Kubernetes 本身并没有实现容器网络而是通过插件化的方式自由接入,容器网络接入需要满足如下基本原则: * pod 无论运行在任何节点都可以互相直接通信,而不需要借助 NAT 地址转换实现。 * node 与 pod 可以互相通信,在不限制的前提下,pod 可以访问任意网络。 * pod 拥有独立的网络栈,pod 看到自己的地址和外部看见的地址应该是一样的,并且同个 pod 内所有的容器共享同个网络栈。 容器网络基础 一个 Linux 容器的网络栈是被隔离在它自己的 Network Namespace 中,Network Namespace 包括了:网卡(Network Interface),回环设备(Lookback Device),路由表(Routing Table)和 iptables 规则,对于服务进程来讲这些就构建了它发起请求和相应的基本环境。而要实现一个容器网络,

By Ne0inhk
Jenkins 学习总结(9)—— Jenkins 有哪些替代方案?

Jenkins 学习总结(9)—— Jenkins 有哪些替代方案?

前言 Jenkins 是目前最常用的持续集成工具,拥有近 50% 的市场份额,它还是很多技术团队的第一个使用的自动化工具。但是随着自动化领域的持续发展,Jenkins 逐渐暴露出了一些问题,例如缺乏功能、维护问题、依赖关系和扩展问题等等。这些问题促使我们寻找替代方法。这就是为什么在本文中,我们提供了用于持续集成的最常见的Jenkins替代品列表。 1. BuildMaster Buildmasters是由Inedo研发的Jenkins替代品,它可以使开发者把软件发布到任何环境。该工具为不同的平台提供持续集成功能,使组织可以创建自己的软件发布管理平台。团队可以处理自己的应用程序,并独立部署到其环境中。不仅如此,它还可以防止发布未经测试的软件。用户对它的简单性感到非常满意。https://inedo.com/buildmaster/download 2. Microtica Microtica是一个DevOps自动化工具,涵盖了整个软件交付过程,从构建云基础架构到使用Kubernetes向云交付应用程序和服务。Microtica的即用型( ready-to-use )组件为用

By Ne0inhk