增量预训练baichuan-13b-chat遇到的那些坑

增量预训练baichuan-13b-chat遇到的那些坑

增量预训练baichuan-13b-chat遇到的那些坑

原创 AI算法之门


前言

资源

单机两4090,如图

www.zeeklog.com  - 增量预训练baichuan-13b-chat遇到的那些坑

在这里插入图片描述

单卡24G,baichuan-13b-chat单卡推理需要至少26G,因此仅用一张卡,我们是无法加载百川13B的模型,所以,无论是推理还是训练,我们都必须并行!

deepspeed

核心思想:GPU显存不够,CPU内存来凑

虽然我们两张卡加起来有48G,按理说显存是足够的,实则不是。

就两张卡而言,分别为GPU0和GPU1,两块GPU上分别有一半模型参数,即6.5B,占用13G,在使用deepspeed的参数并行进行前向传播时,GPU0需要把自己身上的参数传给GPU1临时保存起来,参与前向传播,这时,GPU1身上的参数即为整个模型的参数,即13B,占用26G,超出了单卡显存上限,因此,当只有两块卡时,不使用offload策略的前提下,单卡的显存必须大于 模型大小 * 2,即13B的模型,双卡并行时,必须保证单卡显存大于26G。在使用三卡并行时,单卡显存大小理论上应大于:2 * 13 * 2 / 3 = 17.3G

第一个2表示:每块GPU上都需要保存一份自己独有的参数和其他卡发送过来的临时参数,共2份 第二个2表示:参数的数据类型是fp16,占两个字节,所以乘2 13表示:13B的模型 3表示:3块GPU

下面的视频展示了 ZeRO(包含所有三个阶段)如何执行训练步骤,包括前向传递、后向传递和参数更新。要用到多卡并行的同学建议一定要看! ZeRO-deepspeed-new-system-optimizations-enable-training-models-with-over-100-billion-parameters[1]

从上面的分析可以看出,我的硬件资源在不使用offload的情况下,是不足的,我的deepspeed参数配置:

{

可以看到,我这里使用offload_optimizercpu的策略,这就导致,训练速度慢了很多。

www.zeeklog.com  - 增量预训练baichuan-13b-chat遇到的那些坑

在这里插入图片描述

总共307w数据,batch size为1,梯度累积步为16,每个batch的输入token为1024,两卡4090,offload优化器参数到cpu,需要训练50天。

怕大家不理解什么是offload optimize,给大家贴张图

www.zeeklog.com  - 增量预训练baichuan-13b-chat遇到的那些坑

在这里插入图片描述

一、训练的坑

通过上面一顿操作,总算不OOM了!

我这里是使用Lora的增量预训练方式,给模型注入领域知识,成功启动训练之后,下面是训练了300个step后的模型文件。

www.zeeklog.com  - 增量预训练baichuan-13b-chat遇到的那些坑

在这里插入图片描述

理论上这个adapter_model.bin就是lora的参数,实际并不安全是

可以看下每个文件的大小

www.zeeklog.com  - 增量预训练baichuan-13b-chat遇到的那些坑

在这里插入图片描述

细心的同学可以发现,adapter_model.bin的文件非常小,看起来不像是真的lora模型参数,的确,使用deepspeed stage3策略训练得到的模型参数,还需要恢复权重才能用!如果你不恢复,直接使用PeftModel.from_pretrained合并模型的话,会报错,如下图:

www.zeeklog.com  - 增量预训练baichuan-13b-chat遇到的那些坑

在这里插入图片描述

用以上报错各种Google后都没找到正确答案,就问你绝不绝望!

细心的同学又发现了,保存的checkpoint文件夹里有个 zero_to_fp32.py,没错,这个代码就是用来恢复权重的,在命令行执行:

python zero_to_fp32.py . adapter_model.bin

输出:

[2023-07-30 10:51:11,819] [INFO] [real_accelerator.py:133:get_accelerator] Setting ds_accelerator to cuda (auto detect)

再看下模型大小:

www.zeeklog.com  - 增量预训练baichuan-13b-chat遇到的那些坑

在这里插入图片描述

哇,25G,不太妙啊

妙不妙合并下就知道。

二、推理的坑

好吧,合并试下呗。显存大的同学,合并时可能不会有任何问题,也许就是速度慢了些。

不过,咱只有48G的显存,拿个13B去和这25G大小的模型合并,差不多需要50G的显存,实在是顶不住。

原因:之所以adapter_model.bin达到25G,是因为这个参数包含了非lora层的参数,我们可以将非lora层的参数删除。

解决办法:

import torch 

移除其他层的权重之后,大概就100M多些,这下可以正常推理了

三、继续训练的坑

大模型的并行训练,中途完全有可能需要中断,然后继续训练,这应该很好理解,你除了需要加载最新的模型外,之前已训练过的数据,最好也需要有标记,标记出哪些数据已训练过,尽可能保证每条数据只训练过一次。

不过,考虑到时间上的因素,我这里只做了随机采样,在一定程度上保证了每条数据尽可能只参与一次训练。

class MyDataset(Dataset):

注意:如果这里你固定seed值,每次取到的数据还是一样,一定要保证每次取数据时seed值都不一样,所以我用了时间戳。

总结

卡少是非多

训练代码: https://github.com/seanzhang-zhichen/train_baichuan_llm.git

References

[1] ZeRO-deepspeed-new-system-optimizations-enable-training-models-with-over-100-billion-parameters: https://www.microsoft.com/en-us/research/blog/ZeRO-deepspeed-new-system-optimizations-enable-training-models-with-over-100-billion-parameters/

Read more

深入理解 Proxy 和 Object.defineProperty

在JavaScript中,对象是一种核心的数据结构,而对对象的操作也是开发中经常遇到的任务。在这个过程中,我们经常会使用到两个重要的特性:Proxy和Object.defineProperty。这两者都允许我们在对象上进行拦截和自定义操作,但它们在实现方式、应用场景和灵活性等方面存在一些显著的区别。本文将深入比较Proxy和Object.defineProperty,包括它们的基本概念、使用示例以及适用场景,以帮助读者更好地理解和运用这两个特性。 1. Object.defineProperty 1.1 基本概念 Object.defineProperty 是 ECMAScript 5 引入的一个方法,用于直接在对象上定义新属性或修改已有属性。它的基本语法如下: javascript 代码解读复制代码Object.defineProperty(obj, prop, descriptor); 其中,obj是目标对象,prop是要定义或修改的属性名,descriptor是一个描述符对象,用于定义属性的特性。 1.2 使用示例 javascript 代码解读复制代码//

By Ne0inhk

Proxy 和 Object.defineProperty 的区别

Proxy 和 Object.defineProperty 是 JavaScript 中两个不同的特性,它们的作用也不完全相同。 Object.defineProperty 允许你在一个对象上定义一个新属性或者修改一个已有属性。通过这个方法你可以精确地定义属性的特征,比如它是否可写、可枚举、可配置等。该方法的使用场景通常是需要在一个对象上创建一个属性,然后控制这个属性的行为。 Proxy 也可以用来代理一个对象,但是相比于 Object.defineProperty,它提供了更加强大的功能。使用 Proxy 可以截获并重定义对象的基本操作,比如访问属性、赋值、函数调用等等。在这些操作被执行之前,可以通过拦截器函数对这些操作进行拦截和修改。因此,通过 Proxy,你可以完全重写一个对象的默认行为。该方法的使用场景通常是需要对一个对象的行为进行定制化,或者需要在对象上添加额外的功能。 对比 以下是 Proxy 和 Object.defineProperty 的一些区别对比: 方面ProxyObject.defineProperty语法使用 new Proxy(target,

By Ne0inhk