深入解析 Transformer 内部运作原理:基于 Sakana AI 最新研究
背景介绍
七年前,Google 团队发表的论文《Attention is all you need》提出了 Transformer 架构,彻底颠覆了自然语言处理(NLP)乃至整个深度学习领域。该架构摒弃了传统的循环神经网络(RNN)和卷积神经网络(CNN),完全依赖自注意力机制(Self-Attention)来处理序列数据,实现了并行计算和长距离依赖建模。
如今,从 GPT 系列到 Llama 系列,各家大模型均以 Transformer 架构为基础。然而,Transformer 内部究竟是如何运作的?中间层到底在做什么?这些问题长期以来仍被视为黑盒。去年,Transformer 论文作者之一 Llion Jones 宣布创立人工智能公司 Sakana AI。近期,Sakana AI 发表了一篇题为《Transformer Layers as Painters》的论文,深入探究了预训练 Transformer 中的信息流,并针对仅解码器和仅编码器冻结模型进行了一系列实验。值得注意的是,该研究没有对预训练模型进行任何类型的微调,而是直接观察原始权重下的行为。

论文地址:https://arxiv.org/pdf/2407.09298v1
该研究认为 Transformer 的内部机制(特别是中间层)可以类比画家作画流水线来理解。作画流水线通常是将画布(输入)传递给一系列画家。有些画家擅长画鸟类,而另一些画家则擅长画轮子。每个画家从其下一级画家那里收到画布,然后决定是否给画作添加一些笔画,或者只是将其传递给其上一级画家(使用剩余连接)。这个类比提供了一个直观的思考框架,帮助研究者验证关于 Transformer 层功能的假设。
核心问题与实验设计
受这个类比的启发,该研究测试验证了以下八个关键假设:
- 各层是否都在使用相同的表征空间?
- 所有层都是必要的吗?
- 中间层都执行相同的功能吗?
- 层的顺序重要吗?
- 这些层可以并行运行吗?
- 对于某些任务来说,顺序是否比其他因素更重要?
- 循环有助于层之间并行吗?
- 哪些变体对模型性能影响最小?
该研究对预训练 LLM 进行了一系列实验,包括试验标准 Transformer 执行策略的变化,并在仅解码器 (Llama) 和仅编码器 (BERT) 模型的各种基准上测量这些变化对模型性能的影响。
1. 各层是否都在使用相同的表征空间?
为了回答不同层是否使用相同的表征空间,作者测试了 Transformer 在跳过特定层或切换相邻层的顺序时是否具有稳健性。例如,在 Llama2-7B 中,第 6 层通常期望接收第 5 层的输出。如果给第 6 层以第 4 层的输出,它是否会出现「灾难性」的行为?
在实验中,研究人员发现除了第一层和最后几层之外,Llama2-7B 的各层对跳层或切换层都相当稳健。这表明中间层共享一个表征空间,且与「外围层」(第一层和最后几层)拥有不同的表征空间。
为了进一步验证这一假设,作者测量了基准中模型(Llama2-7B、Llama2-13B 和 BERT-Large)不同层的隐藏状态激活之间的平均余弦相似度。结果显示所有中间层之间的一致性很高。这表明模型可能具有「开始」、「中间」和「结束」层的三个不同的表征空间。
结论: 是的,中间层似乎共享一个共同的表征空间。
2. 所有层都是必要的吗?
为了进一步测试中间层的重定向空间是否真正共享,该研究尝试了「跳过层」,即将第 N 层的输出直接发送到第 N + M 层(其中 M > 1)的输入中,从而「跳过」M − 1 层。该实验是为了看看第 N + M 层是否可以理解第 N 层的激活,尽管它仅根据从第 N + M − 1 层发来的输入进行训练。
实验显示,Llama2-7B 和 BERT-Large 在许多基准测试上性能均出现适度下降,但并未发生灾难性故障。
结论: 不,至少可以删除一些中间层而不会发生灾难性故障。这为模型剪枝提供了理论依据。
3. 中间层都执行相同的功能吗?
如果中间层都共享一个共同的表征空间,这是否意味着除此之外的中间层是多余的呢?为了测试这一点,研究者们重新运行了前一子节中的「跳过」实验,他们将中间层的权重替换为中心层的权重,有效地在被替换的每一层上循环 T - 2N + 1 次,其中 T 是总层数(Llama2-7B 为 32 层,BERT-Large 为 24 层)。
如图 5 所示,可以观察到,随着被替换层数的增加,模型在基准测试的得分迅速下降。从后文的比较来看,这种替换层的做法比研究者们尝试的其他方法都更糟糕。因此,研究者得出结论:中间层执行的是不同的功能,让中间层之间共享权重并不可行。
for layer_idx in range(start_layer, end_layer):
model.layers[layer_idx].weight = center_layer.weight
结论: 中间层虽然共享表征空间,但各自承担不同的处理功能,不能简单互换权重。
4. 层的顺序重要吗?
之前的实验表明,中间层共享一个表示空间,但在该空间中负责不同的功能。下一个需要解决的问题是,这些功能的顺序有何意义。为了解决这个问题,研究者们设计了两组实验。首先,以与训练时相反的顺序来运行中间层。具体来说,取第 T - N 层的输出,将其输入到第 T - N - 1 层,然后将这一层的输出输入到第 T - N - 2 层,依此类推,一直到第 N 层,再将这一层的输出发送到后面的 T - N 层。在第二组实验中,研究者采用随机顺序运行中间层,并在 10 个种子值上取平均值。
图 6 和图 7 分别显示了反向和以随机顺序运行中间层的结果,模型在所有基础测试集中都显示出了逐渐下降的趋势。这也表明虽然层的顺序对模型来说有一定的重要性,但即使改变了顺序,这些层仍然能够发挥作用。
更有趣的是,随机打乱层的顺序比完全反过来效果更好。这可能是因为,随机打乱的顺序在某些方面保留了层之间的一些原有关系(即层 i 在层 j 之后,其中 i > j),而完全反过来则完全打破了这些关系。
结论: 层的顺序对模型性能有影响,但具有一定的鲁棒性。
5. 这些层可以并行运行吗?
为了验证层本身存在比执行的顺序更重要,研究者们设计了一个实验,并行运行中间层,将它们的平均结果发送给最终的 N 层。
如图 8 所示,模型在所有基准测试中的表现均呈现了一种平缓下降趋势,然而,这种趋势并不适用于 GSM8K 中的数学应用题。
实验结果显示,大部分情况下这种方法都是有效的,只是一些复杂的数学题处理得不太好。这种并行处理方法相比直接跳过一些层,效果更好,但不如按反向顺序运行层的效果出色。基于此,研究者得出结论:并行运行层在一般情况下是可行的,但对于需要顺序逻辑理解的数学问题,这种方法可能不太适用。
6. 对于某些任务来说,顺序是否比其他因素更重要?
对于大多数经过「改造」的模型,在面对抽象推理(ARC)或数学推理(GSM8K)基准测试时,它们往往显示出最陡峭的下降趋势。这一现象可能源于逐步推理任务对于模型层级顺序的敏感度远高于那些主要依赖语义理解的常识性任务。与那些仅通过理解语义便能完成的任务不同,推理任务要求模型同时把握结构与含义。这种观察与模型在单次处理过程中可能进行一定程度的顺序依赖性推理的假设相吻合。
研究者使用了一个比喻来说明:如果画一幅由许多不同元素组成的拼贴画,那么画的顺序可能不那么重要;但如果是要画一幅精确的建筑场景,那么每一笔的顺序就变得非常重要了。据此,研究者得出了结论:数学和推理任务对模型层的顺序具有更高的依赖性,而对于那些主要依赖语义理解的任务,顺序的影响则相对较小。
7. 循环有助于层之间并行吗?
沿用上一节中画画的比喻,当画家在画一幅画时,不是一开始就画所有东西,而是先画一部分,比如车身,然后再根据这部分来添加其他的东西,比如车轮。在 AI 模型中,层就是所谓的画家,处理信息就是在画画,如果先得到了正确的信息,也就先画出了所谓的车身,那么它们就能更好地完成自己的工作,为画作添加车轮。
对于 transformer 而言,当给予适当的输入时,层可能只在前向传播中做出贡献,并非通过残差连接「传递」输入。如果情况确实如此,那么迭代上一个实验中的并行层应该比单次执行并行层更能提高模型的性能。基于此,研究者通过将并行层的平均输出反馈到同一层中进行固定次数的迭代来测试这一点。
图 9 展示了将并行层循环 3 次的结果。循环并行 3 次的结果显著优于单次迭代(并行层)。起始层 N 设定为 15(针对 Llama2-7B 模型)或 11(针对 BERT 模型)时,即处于每种情况的极左端点,仅有单一的层级受到影响。在这种特定情况下,三次循环并行的效果等同于单纯地将中间层重复三次。与此同时,对于这一点上的并行层而言,其性能与完整模型无异。
研究者们还针对不同的迭代次数重复了相同的实验。图 10 展示了 Llama2-7B 的性能随并行化层数 M 和迭代次数的变化情况。每个 M 的最高性能迭代次数用红框标出。除了 M=29 和 M=31(几乎并行化所有层)外,最佳迭代次数大致与并行化层数成线性比例。因此,研究者得出的结论是:最佳迭代次数与并行化层数成正比。
8. 如何调整层,对模型性能的影响最小?
最后,在图 11 中,研究者们将所有实验中对 Transformer 的「改造」进行了比较,在一个图表上显示了所有基准测试的中位数或平均性。
中间重复 —— 用相同数量的中间层副本替换中间层 —— 表现最差,很快就降到了随机基线的性能。相反,循环并行和随机层顺序的影响最小。因此,研究者得出的结论是:重复单一层的影响最严重。随机化层顺序和循环并行的影响最小。
总结与工程启示
这些实验整体上显示出平缓的性能下降,但研究者仍然不清楚为什么这些层在大多数扰动下还能保持一定的稳健性,这个问题还需在未来的研究中进一步探讨。
对工程实践的意义
- 模型压缩与加速:既然中间层可以跳过而不导致灾难性故障,这为动态推理和模型剪枝提供了新思路。可以在推理阶段根据输入难度动态调整使用的层数。
- 并行计算优化:虽然完全并行会降低数学推理能力,但结合循环迭代(Looping)可以弥补这一缺陷。这对于硬件部署时的并行度设计有参考价值。
- 层序敏感性:在进行模型微调或蒸馏时,应尽量避免随意打乱层序,尤其是涉及复杂推理任务时。
- 表征空间一致性:中间层共享表征空间的事实表明,我们可以利用这一特性进行跨层知识迁移或特征对齐。
Transformer 的内部机制依然充满奥秘,但随着像 Sakana AI 这样的研究不断深入,我们对大模型的认知正在从黑盒走向白盒。未来的工作可能会集中在解释为何这种冗余结构存在,以及如何更高效地利用这种冗余来提升模型效率。
注:本文内容基于 Sakana AI 公开论文整理,旨在技术分享,不涉及商业推广。