多模态大模型(MLLM)训练篇 - Pre-training

多模态大模型(MLLM)训练篇 - Pre-training

多模态大模型(MLLM)训练篇 - Pre-training

VaquitaAI  2024年08月28日 11:40 北京

【导读】MLLM 的训练范式大致可以划分为预训练阶段、指令微调阶段和对齐微调阶段。本文首先介绍预训练阶段(Pre-training),预训练目的是通过大量图文对将图片信息对齐到 LLM 的表征空间,即让 LLM 读懂视觉 Token。

一、预训练的目的

多模态大模型(MLLM)预训练的目的是对齐不同模态,并学习多模态世界知识。如 llava 第一阶段训练的目的是为了将图片信息映射到文本语义空间,让 LLM 能够理解图像内容。

注:本文介绍的是广义上的预训练,即完成不同模态之间的对齐,而非特指模型的全量训练。

二、预训练数据

2.1 数据格式

预训练阶段使用大规模文本配对数据,通常为图像、音频或视频的caption数据

www.zeeklog.com  - 多模态大模型(MLLM)训练篇 - Pre-training

用于构建image-text-pair数据的简化模板

下图是从 Flickr8k 中随机采样的 16 个图像文本对:

www.zeeklog.com  - 多模态大模型(MLLM)训练篇 - Pre-training

2.2 数据集

预训练语料库可以根据粒度分为粗粒度和细粒度图文对数据,表中总结了常用的预训练数据集。

www.zeeklog.com  - 多模态大模型(MLLM)训练篇 - Pre-training

粗粒度数据集具有大规模、简短嘈杂的特点,而细粒度数据通过使用高级MLLMs生成,虽然成本较高,但提供了更准确的图文对齐,ShareGPT4V项目展示了一种平衡成本和数据量的策略。

粗粒度数据:

方法:来源互联网,数据量大,描述简短且可能嘈杂。

代表数据集:

LAION-5B:5.85B图像-文本对,多语言,含2B英语子集。

LAION-COCO:从LAION-5B提取的600M英语图像,字幕合成自BLIP和CLIP。

CC-3M:3.3M图像-文本对,原始描述来自alt文本,经过复杂清洗流程,包括图像过滤、文本注释获取和启发式规则过滤,以及图像-文本对的标签匹配。

CC-12M:CC-3M的扩展,包含12.4M图像-字幕对,简化数据收集流程。

SBU Captions:1M图像-文本对,来自Flickr。

LAION系列:大规模网络数据集,图像和字幕来自互联网,经过文本长度、图像大小和去重等过滤步骤。

COYO-700M:747M图像-文本对,来自CommonCrawl,过滤策略包括图像和文本的格式、内容和长度要求,以及去除与公共数据集重叠的图像。

细粒度数据:

方法:使用强大的MLLMs(如GPT-4V)生成高质量细粒度数据。

优势:相比粗粒度数据,细粒度数据包含更长、更准确的图像描述,实现更精细的图文对齐。

挑战:成本较高,数据量较小,依赖商业MLLMs。

代表数据集:ShareGPT4V:通过先用GPT-4V生成的100K数据训练,再扩展到1.2M数据,平衡成本和数据量。

www.zeeklog.com  - 多模态大模型(MLLM)训练篇 - Pre-training

预训练数据集示例

三、代表模型-预训练阶段

这里介绍几种MLLM模型在预训练阶段的数据和训练策略:

3.1 LLaVA

1. 数据

LLaVA 预训练阶段的数据为LLaVA Visual Instruct CC3M Pretrain 595K, 是 CC-3M 数据集的子集,通过一系列手段筛选出595K图像-文本对用于训练。

www.zeeklog.com  - 多模态大模型(MLLM)训练篇 - Pre-training

LLaVA Visual Instruct CC3M Pretrain 595K

2. 特征对齐预训练

由于从CLIP提取的特征与word embedding不在同一个语义表达空间,因此,需要通过预训练,将image embedding对齐到text word embedding的语义表达空间。这个阶段冻结Vision Encoder和LLM模型的权重参数,只训练插值层Adapter的权重。

www.zeeklog.com  - 多模态大模型(MLLM)训练篇 - Pre-training

llava 的 pre-training 阶段

3.2 VILA

《VILA: On Pre-training for Visual Language Models》是NVIDIA和MIT提出的一个工作,文中对视觉语言模型预训练的有效机制进行了一些总结,并提出了一系列视觉语言的大模型VILA(Visual Language)。

1. 预训练数据

www.zeeklog.com  - 多模态大模型(MLLM)训练篇 - Pre-training

2. 训练

和LLaVA系列差不多,模型的训练包含三个阶段,如图所示:

Projector init:LLM 和 ViT 都是单独训练的,连接 LLM 和 ViT 的 Projector 是随机初始化的,所以这个阶段首先对 Projector 做训练

Interleaved pre-training:对 LLM 和 Projector 进行训练

Vision-text joint SFT:对预训练模型进行视觉指令微调

www.zeeklog.com  - 多模态大模型(MLLM)训练篇 - Pre-training

VILA: On Pre-training for Visual Language Models

模型指标如下,本文得出结论:

LLM冻结与更新:在预训练过程中,冻结大型语言模型(LLM)可以实现不错的零样本(zero-shot)性能,但缺乏上下文学习能力(in-context learning capability)。为了获得更好的上下文学习能力,需要对LLM进行更新。实验表明,更新LLM有助于在更深层次上对齐视觉和文本的潜在嵌入,这对于继承LLM的上下文学习能力至关重要。

交错预训练数据:交错的视觉语言数据(如MMC4数据集)对于预训练是有益的,而仅使用图像-文本对(如COYO数据集)则不是最佳选择。交错数据结构有助于模型在保持文本能力的同时,学习与图像相关的信息。

www.zeeklog.com  - 多模态大模型(MLLM)训练篇 - Pre-training

3.3 InternVL

1. 预训练数据集

www.zeeklog.com  - 多模态大模型(MLLM)训练篇 - Pre-training

2. 训练

视觉-语言对比训练:进行对比学习,将InternViT-6B与多语言LLaMA-7B在网络规模上的嘈杂图像文本对进行对齐

视觉-语言生成训练:QLLaMA在第一阶段继承了LLaMA-7B的权重。我们保持InternViT-6B和QLLaMA冻结,仅训练新添加的可学习查询和交叉注意力层。

有监督微调:为了强化对话、问答能力,通过MLP层将其与现成的LLM解码器(如Vicuna或InternLM)连接,并进行监督微调

www.zeeklog.com  - 多模态大模型(MLLM)训练篇 - Pre-training

3.4 Qwen-VL

1. 预训练数据

1)stage1-预训练数据

www.zeeklog.com  - 多模态大模型(MLLM)训练篇 - Pre-training

2)stage2-多任务预训练数据

www.zeeklog.com  - 多模态大模型(MLLM)训练篇 - Pre-training

2. 训练

Stage1 为预训练,目标是使用大量的图文Pair对数据对齐视觉模块和LLM的特征,这个阶段冻结LLM模块的参数;

Stage2 为多任务预训练,使用更高质量的图文多任务数据(主要来源自开源VL任务,部分自建数据集),更高的图片像素输入,全参数训练;

Stage3 为指令微调阶段,这个阶段冻结视觉Encoder模块,使用的数据主要来自大模型Self-Instruction方式自动生成,目标是提升模型的指令遵循和多轮对话能力。

www.zeeklog.com  - 多模态大模型(MLLM)训练篇 - Pre-training

阅读 510

Read more

60个“特征工程”计算函数(Python代码)

60个“特征工程”计算函数(Python代码)

转自:coggle数据科学 近期一些朋友询问我关于如何做特征工程的问题,有没有什么适合初学者的有效操作。 特征工程的问题往往需要具体问题具体分析,当然也有一些暴力的策略,可以在竞赛初赛前期可以带来较大提升,而很多竞赛往往依赖这些信息就可以拿到非常好的效果,剩余的则需要结合业务逻辑以及很多其他的技巧,此处我们将平时用得最多的聚合操作罗列在下方。 最近刚好看到一篇文章汇总了非常多的聚合函数,就摘录在下方,供许多初入竞赛的朋友参考。 聚合特征汇总 pandas自带的聚合函数 * 其它重要聚合函数 其它重要聚合函数&分类分别如下。 def median(x):     return np.median(x) def variation_coefficient(x):     mean = np.mean(x)     if mean != 0:         return np.std(x) / mean     else:         return np.nan def variance(x):     return

By Ne0inhk
90w,确实可以封神了!

90w,确实可以封神了!

要说24年一定最热的技术,还得是AIGC! 前段时间阿里旗下的开源项目,登上GitHub热榜! AI大热,如今ChatGPT的优异表现,必然会出现各种细分场景应用的工具软件,和大量岗位项目! 山雨欲来风满楼,强人工智能的出现,所有科技公司已经开始巨量扩招此领域的人才。算法的岗位,近三个月已经增长68%!这件事在HR届也是相当震撼的。 目前各行各业都不景气的市场,人工智能岗位却一直保持常青!甚至同属AI边缘岗都比其他岗薪资高40%! 与此同时,AI算法岗上岸也不简单,竞争激烈,好公司核心岗位不用说,谁都想去。 所以事实就是,想要上岸,门槛也逐渐变高,项目经历、实习经历都很重要,越早明白这个道理就越能提前建立起自己的优势。 但我在b站逛知识区的时候,经常看到有些同学,因为一些客观原因导致无法参加实习,这种情况下,如果你想提升背景,增加项目经历的话,可以试试这个《CV/NLP 算法工程师培养计划》。 目前已经有上千位同学通过该计划拿到offer了,最新一期学员就业薪资最高能拿到78K!年薪94w! 优势就是有BAT大厂讲师带领,手把手带做AI真实企业项目(包含CV、NLP等

By Ne0inhk
再见nohup!试试这个神器,Python Supervisor!

再见nohup!试试这个神器,Python Supervisor!

👇我的小册 45章教程:() ,原价299,限时特价2杯咖啡,满100人涨10元。 作者丨Ais137 https://juejin.cn/post/7354406980784373798 1. 概述 Supervisor 是一个 C/S 架构的进程监控与管理工具,本文主要介绍其基本用法和部分高级特性,用于解决部署持久化进程的稳定性问题。 2. 问题场景 在实际的工作中,往往会有部署持久化进程的需求,比如接口服务进程,又或者是消费者进程等。这类进程通常是作为后台进程持久化运行的。 一般的部署方法是通过 nohup cmd & 命令来部署。但是这种方式有个弊端是在某些情况下无法保证目标进程的稳定性运行,有的时候 nohup 运行的后台任务会因为未知原因中断,从而导致服务或者消费中断,进而影响项目的正常运行。 为了解决上述问题,通过引入 Supervisor 来部署持久化进程,提高系统运行的稳定性。 3. Supervisor 简介 Supervisor is a client/

By Ne0inhk
第一本给程序员看的AI Agent图书上市了!

第一本给程序员看的AI Agent图书上市了!

AI Agent火爆到什么程度? OpenAI创始人奥特曼预测,未来各行各业,每一个人都可以拥有一个AI Agent;比尔·盖茨在2023年层预言:AI Agent将彻底改变人机交互方式,并颠覆整个软件行业;吴恩达教授在AI Ascent 2024演讲中高赞:AI Agent是一个令人兴奋的趋势,所有从事AI开发的人都应该关注。而国内的各科技巨头也纷纷布局AI Agent平台,如:钉钉的AI PaaS、百度智能云千帆大模型平台等等。 Agent 是未来最重要的智能化工具。对于程序员来说,是时候将目光转向大模型的应用开发了,率先抢占AI的下一个风口AI Agent。 小异带来一本新书《大模型应用开发 动手做 AI Agent》,这本书由《GPT图解》的作者黄佳老师创作,从0到1手把手教你做AI Agent。现在下单享受5折特惠! ▼点击下方,即可5折起购书 有这样一本秘籍在手,程序员们这下放心了吧,让我们先来揭开 Agent 的神秘面纱。 AI Agent 面面观

By Ne0inhk