Llama 3 大模型技术报告详解
1. 引言
现代人工智能(AI)系统由基础模型驱动。本文介绍了一套新的基础模型,称为 Llama 3。它是一群本地支持多语言、编码、推理和工具使用的语言模型。我们最大的模型是一个具有 4050 亿参数和高达 128K 令牌上下文窗口的密集 Transformer。本文对 Llama 3 进行了广泛的实证评估。我们发现 Llama 3 在众多任务上提供了与 GPT-4 等领先语言模型相当的质量。我们公开发布了 Llama 3,包括 4050 亿参数语言模型的预训练和后训练版本,以及我们的 Llama Guard 3 模型,用于输入和输出安全。本文还介绍了我们通过组合方法将图像、视频和语音能力集成到 Llama 3 中的实验结果。我们观察到这种方法在图像、视频和语音识别任务上与最先进的技术竞争。生成的模型尚未广泛发布,因为它们仍在开发中。
1.1 基础模型概述
基础模型是为语言、视觉、语音和/或其他模态设计的通用模型,旨在支持大量 AI 任务。它们构成了许多现代 AI 系统的基础。
现代基础模型的发展包括两个主要阶段:
- 预训练阶段:在这个阶段,模型使用简单的任务(如下一个词预测或字幕生成)进行大规模训练。
- 后训练阶段:在这个阶段,模型被调整以遵循指令、与人类偏好对齐,并提高特定能力(例如,编码和推理)。
在本文中,我们介绍了一套新的语言基础模型,称为 Llama 3。Llama 3 模型群原生的支持多语言、编码、推理和工具使用。我们最大的模型是一个具有 4050 亿参数的密集 Transformer,能够在高达 128K 令牌的上下文中处理信息。表 1 列出了每个模型成员。本文中呈现的所有结果都是针对 Llama 3.1 模型的,为了简洁,我们将在全文中称之为 Llama 3。
2. 核心开发杠杆
我们相信,在开发高质量的基础模型方面有三个关键的杠杆:数据、规模和管理复杂性。我们在开发过程中寻求优化这三个杠杆:
2.1 数据策略
与 Llama 的早期版本(Touvron 等人,2023a,b)相比,我们改进了用于预训练和后训练的数据量和质量。这些改进包括开发更谨慎的预训练数据处理和策划流程,以及为后训练数据开发更严格的质量保证和过滤方法。我们对 Llama 3 进行了大约 15T 多语言令牌的预训练,而 Llama 2 是 1.8T 令牌。这一巨大的数据量提升显著增强了模型的知识广度和深度,使其能够理解更多样化的语言结构和领域知识。
2.2 模型规模
我们训练的模型规模远远大于以前的 Llama 模型:我们的旗舰语言模型使用了 3.8×10^25 次浮点运算进行预训练,比 Llama 2 的最大版本多近 50 倍。具体来说,我们在 15.6T 文本令牌上预训练了一个具有 4050 亿可训练参数的旗舰模型。根据基础模型的规模法则,我们的旗舰模型的表现超过了使用相同过程训练的较小模型。虽然我们的规模法则表明,我们的旗舰模型对于我们的训练预算来说是近似计算最优的大小,我们还训练了更小的模型,比计算最优的时间长得多。产生的模型在相同的推理预算下比计算最优模型表现更好。我们使用旗舰模型在后训练期间进一步提高这些较小模型的质量。
2.3 管理复杂性
我们做出设计选择,力求最大化我们扩展模型开发过程的能力。例如,我们选择标准的密集 Transformer 模型架构(Vaswani 等人,2017)进行小幅度调整,而不是选择专家混合模型(Shazeer 等人,2017)以最大化训练稳定性。同样,我们采用了相对简单的后训练程序,基于监督微调(SFT)、拒绝采样(RS)和直接偏好优化(DPO;Rafailov 等人(2023)),而不是更复杂的强化学习算法(Ouyang 等人,2022;Schulman 等人,2017),这些算法往往不太稳定,更难扩展。
3. 模型规格与评估
我们的工作成果是 Llama 3:一个包含 8B、70B 和 405B 参数的三种多语言的语言模型的群体。我们在涵盖广泛语言理解任务的众多基准数据集上评估了 Llama 3 的性能。此外,我们进行了广泛的人类评估,将 Llama 3 与竞争模型进行了比较。表 2 展示了旗舰 Llama 3 模型在关键基准测试中的表现概览。我们的实验评估表明,我们的旗舰模型在各种任务上的表现与 GPT-4(OpenAI,2023a)等领先的语言模型相当,并且接近于达到最先进的水平。我们的较小模型是同类中最好的,超过了参数数量相似的替代模型(Bai 等人,2023;Jiang 等人,2023)。Llama 3 还在有益性和无害性之间提供了比其前身(Touvron 等人,2023b)更好的平衡。我们在第 5.4 节中对 Llama 3 的安全性进行了详细分析。
3.1 上下文窗口优势
Llama 3 支持高达 128K 令牌的上下文窗口。这一特性使得模型能够处理极长的文档、代码库或多轮对话历史,而无需频繁截断或丢失关键信息。这对于需要长程依赖理解的复杂任务(如法律合同分析、长篇代码重构)尤为重要。
3.2 分词器优化
为了支持多语言和高效处理,Llama 3 采用了经过优化的分词器。这减少了处理非英语文本时的 token 数量,提高了推理速度,并降低了计算成本。同时,分词器的改进也增强了对罕见词汇和代码符号的处理能力。
4. 安全性与合规
我们正在根据 Llama 3 社区许可证的更新版本公开发布所有三个 Llama 3 模型;请参见 https://llama.meta.com。这包括我们的 405B 参数语言模型的预训练和后训练版本,以及我们的 Llama Guard 模型(Inan 等人,2023)的新版本,用于输入和输出安全。我们希望旗舰模型的开放发布将激发研究社区的一波创新,并加速朝着负责任的人工通用智能(AGI)发展道路前进。
Llama Guard 3 通过检测有害内容、提示注入攻击和敏感信息泄露,为模型应用提供了一层重要的安全屏障。这使得开发者可以在构建生产级应用时更加放心地部署开源模型。
5. 多模态能力探索
作为 Llama 3 开发过程的一部分,我们还开发了模型的多模态扩展,使其具备图像识别、视频识别和语音理解能力。这些模型仍在积极开发中,尚未准备好发布。除了我们的语言建模结果外,本文还展示了我们对这些多模态模型进行的初步实验的结果。通过组合方法将图像、视频和语音能力集成到 Llama 3 中,我们观察到这种方法在图像、视频和语音识别任务上与最先进的技术竞争。
这种多模态集成意味着未来的 Llama 系列可能不再局限于纯文本交互,而是能够像人类一样感知和理解周围环境的信息。尽管目前尚未完全发布,但这为未来的 AGI 发展奠定了重要基础。
6. 总结
Llama 3 代表了开源基础模型领域的重要进展。通过优化数据质量、扩大模型规模以及简化训练流程,Meta 成功构建了一个在多个维度上接近甚至超越闭源商业模型的系列模型。尽管部分多模态功能仍在开发中,但现有的语言模型已展现出强大的实用价值。随着更多资源的公开,预计 Llama 3 将在学术界和工业界引发新一轮的创新浪潮。对于开发者而言,掌握 Llama 3 的技术细节和应用场景,将是应对未来 AI 时代挑战的关键。