LLaMA论文阅读笔记

论文:https://arxiv.org/pdf/2302.13971

1、为什么要做这个研究(理论走向和目前缺陷) ?
之前的效果的模型要么不开源,要么用了私有数据训练,完全开源的效果都不咋地。
2、他们怎么做这个研究 (方法,尤其是与之前不同之处) ?
用完全开源的数据(1.4万亿tokens),并没有大的离谱模型(7B到65B), 做了一系列前面研究做的优化,如RMSNorm的Pre-normalization减少计算量,FFN的激活函数替换为SwiGLU增强表现能力更好,旋转位置编码RoPE提升模型长度外推性。这些优化基本都成了后续大模型设计的标配。
3、发现了什么(总结结果,补充和理论的关系)?
算是首个完全开源且效果和闭源模型相当的LLM模型,候选qwen也是基于这个模型改进得到的。

摘要

发布LLaMA系列模型,参数量从7B到65B量级,训练数据在1.5万亿tokens,且全是开源的数据,13B参数量的比175B的GPT-3性能还要好,65B的模型达到当前最好的大语言模型效果。

1 引言

在算力固定的情况下,小模型+大数据比大模型+小数据效果更好,而且小模型+大数据可能训练时间很长,但是推理时长比较短。

2 方案

2.1 预训练数据

全是开源数据,大部分都是其他LLM训练用的数据。
英文爬虫获取数据(67%)。预处理之前别人通过爬虫获得的(2017-2020)文献,但做了以下处理,1)数据去重。2)用fastText线性分类器区分是否英文数据,把非英文的踢掉。3)ngram语言模型滤除内容质量底下的数据。4)训练了一个分类器区分是否来自维基百科数据,把非维基百科的数据丢弃掉。
C4数据(15%)。预处理包括去重以及去非英文数据。
github数据(4.5%)。去重,去低质量数据。
Wiki百科(4.5%)。2022年1月-2022年月的数据。把超链接、评论、及废话去掉。
Gutenberg and Books3 [4.5%]。来自书本的预料库,也做了去重。
ArXiv [2.5%]. 移除文章第一节前的所有内容,包括作者信息也被移除。
Stack Exchange [2%]. 有高质量问答数据的网站,类似stackoverflow。

分词器: BPE.
最终获得共计1.4T(1.4万亿)个训练tokens,大多数训练数据只会被训练一次,除了维基百科和书本里的数据训练了两次。

2.2 架构

基于transformer了架构,并混合了后续模型提出的各种优化方法。包括:
Pre-normalization [GPT3]. 使用RMSNorm在transofmer子层输入之前先做归一化,而不是像标准的transfomer一样在输出之后做LayerNorm归一化,可以提升训练的稳定性。注:LayerNorm和RMSNorm的主要区别在于是否有中心化,LayerNorm会减去特征均值,实现数据中心化,而RMSNorm没有这一步,故不会中心化。在大模型训练时,中心化不是必须的,而缩放是必要的,且RMSNorm计算量更小,

[图片]

SwiGLU activation function [PaLM]。SwiGLU替换FFN层中ReLU层。SwiGLU中的G即gate,引入了门控(0~1)之间权重逐元素和线性变换后的原始值相乘。虽然增加了计算量,但在大模型中表现能力更好,基本是现代大模型的标配。

[图片]

Rotary Embeddings [GPTNeo]。即RoPE相对位置编码。位置编码一般有绝对位置编码,即可学习的位置编码或标准的transfomer中使用的Sinusoidal位置编码。可学习的位置编码缺点是模型不具有长度外推性,因为位置编码矩阵的大小是预设的,若对其进行扩展,将会破坏模型在预训练阶段学习到的位置信息。Sinusoidal位置编码还具有远程衰减的性质,具体表现为对于两个相同的词向量,如果它们之间的距离越近,则他们的内积分数越高,反之则越低。Sinusoidal位置编码中的正弦余弦函数具备周期性,并且具备远程衰减的特性,所以理论上也具备一定长度外推的能力。而RoPE作者的出发点为:通过绝对位置编码的方式实现相对位置编码。Sinusoidal位置编码通过加法把相对位置信息融入到内容信息中,但需要模型隐式学习这种相对位置信息,而RoPE通过旋转(乘法)把相对位置信息融入到内容信息中,是一种显式的注入,不需要隐式学习,在长度外推性方面,RoPE比Sinusoidal更好。参考
https://hub.baai.ac.cn/view/32862 获取更详细的信息。

在这里插入图片描述

2.3 优化器

AdamW 优化器,cosine learning rate schedule等

2.4 高效实现

做了一些优化提升训练速度。首先是采用高效因果多头注意力(from xformers)减少内存占用和运行时间,即下三角矩阵只计算需要的部分,不用的部分不存不算,从而减少显存占用。其次,保存线性层的激活值,避免反向传播时还要重新计算。
最终训练65B的模型,1.4万亿的tokens数据,需要80G A100训练21天。

3 主要结果

在20个benchmarks做了实验。

  1. Zero-shot: 提供任务描述和一道测试题输入到模型中,让模型生成问题解答或选择正确答案。
  2. Few-shot: 提供一些任务解答案例和一道测试题,让模型生成问题解答或选择正确答案。
    对比的模型:
  • 闭源:GPT-3 2020, Gopher 2021, Chinchilla 2022, PaLM 2022
  • 开源:OPT 2022, GPT-J 2021, GPT-Neo 2022, 以及指令微调的模型OPT-IML, Flan-PaLM.

3.1 常识推理

8个benchmark: BoolQ, PIQA,SIQA , HellaSwag, WinoGrande, ARC easy/challenge, OpenBookQA.

[图片]

3.2 书本知识问答

两个benchmark: Natural Questions和TriviaQA

[图片]
[图片]

3.3 阅读理解

RACE benchmark,来源于中国初高中英语测试的阅读理解题。

[图片]

3.4 数学推理

2 benchmark: MATH, GSM8k,初高中数学题。
Minerva是PaLM在arxiv以及数学网站数据微调出来的模型,故效果很好。

[图片]

3.5 代码生成

2个benchmark: HumanEval, MBPP

[图片]

3.6 大规模多任务语言理解

MMLU benchmark

[图片]

3.7 训练时的性能进化

训练时评估模型性能,一般情况下,训的tokens越多,性能越好。

[图片]

4 指令微调

加点指令微调后,模型效果大幅提升。

[图片]

5 偏见、戾气以及错误

6 碳排放

7 相关研究

8 结论

开源了不同大小的LLaMA模型,通过相对较小模型+大量数据实现不错的效果,且所有数据都是开源的。

Read more

第三章-提示词-解锁Prompt提示词工程核销逻辑,开启高效AI交互(10/36)

第三章-提示词-解锁Prompt提示词工程核销逻辑,开启高效AI交互(10/36)

摘要:Prompt 提示词工程通过设计指令、上下文、输入与输出格式,引导大语言模型精准完成任务,并依托“核销流程”(解析-拆解-理解-生成-验证)确保结果合规。文章系统讲解提示词编写策略、幻觉与输出不匹配的应对方法,展示内容生成、数据分析等场景案例,并展望自动提示词生成、多模态融合等未来趋势。 引言 在人工智能飞速发展的当下,大语言模型(LLM)如 ChatGPT、文心一言等,已经深度融入到我们的生活和工作的各个领域。而 prompt 提示词工程,作为与这些大语言模型交互的关键技术,正逐渐成为 AI 领域中不可或缺的重要环节。一个精心设计的 prompt,能够引导模型生成高质量、符合需求的输出,无论是文本创作、智能问答,还是代码生成等任务,提示词的质量都直接影响着最终的效果 。 在实际应用中,随着对提示词使用的不断深入,我们会面临一个重要的问题 —— 核销逻辑。核销逻辑在 prompt 提示词工程中起着至关重要的作用,它关乎着资源的有效利用、成本的控制以及系统的稳定运行。那么,这个神秘的核销逻辑究竟是什么?

从微博热搜到深度报告:实测 ToClaw 的信息检索与分析能力,AI 终于开始“先找再写”

从微博热搜到深度报告:实测 ToClaw 的信息检索与分析能力,AI 终于开始“先找再写”

现在做内容、做运营、做市场,最怕的不是没有灵感,而是信息流转得太快。一个热点从冒头到发酵,可能只需要几个小时;而从“看到热搜”到“形成一版可用分析”,往往要经历找榜单、翻链接、看评论、筛信息、做结构、再写结论一整套流程。很多人以为这件事的核心是写,其实真正耗时的,往往是前面的“找”和“判”。 这也是我为什么会特别想测 ToDesk 远程控制新上线的 ToClaw:如果它只是会写几段话,那其实不算新鲜;但如果它能围绕“热点分析”这个真实任务,把检索、筛选、归纳、生成这几个动作串起来,那它就不只是一个聊天入口,而更像是一个真正能进入工作流的 AI 助手。 而从这次实测来看,ToClaw 在这个场景里,确实给了我一点不一样的感觉。 一、开放式测试 为了看清 ToClaw 到底是在“生成”

如何给小智 AI 绑定设备及解绑设备

如何给小智 AI 绑定设备及解绑设备

如何给小智 AI 绑定设备及解绑设备 文章目录 * 如何给小智 AI 绑定设备及解绑设备 * 前言 * 1、绑定设备 * 2、解绑设备 * 2.1 能正常登录后台 * 2.2 不能登录后台 前言 当手上绑定了比较多的小智设备或发现设备已被别人绑定,又无法联系上对方,也不知道是谁给设备绑定了,则可以通过邮箱的方法流程去处理解绑。这个是小智AI官方提供的一个很好的解决办法。 前提:是这个小智AI产品是可以输出LOG信息的,如果无法输出就无法用这个方法了 1、绑定设备 绑定设备方法可查看往期发的文章第5章内容,参考里面的步骤即可,非常详细了的,这里就不重复编写了。点我即可跳转查看哦!!! 2、解绑设备 如果解除了该设备的绑定,那么以前的配置及历史对话等记录将会被清除,再次绑定又会是一个新设备了。 2.1 能正常登录后台 第一步: 手机或电脑浏览器输入网址登录小智后台:https://xiaozhi.me/ 第二步: 登录进去之后,找到对应的设备,

什么是 AI Agent 中的 Skills?它有什么用?

什么是 AI Agent 中的 Skills?它有什么用?

👨‍⚕️主页: gis分享者 👨‍⚕️感谢各位大佬 点赞👍 收藏⭐ 留言📝 加关注✅! 👨‍⚕️收录于专栏:AI大模型原理和应用面试题 文章目录 * 一、🍀Skills * 1.1 ☘️概念 * 1.2 ☘️作用 * 二、🍀扩展知识 * 2.1 ☘️Skills 出现之前的痛点 * 2.2 ☘️Skills 的技术实现原理 * 2.3 ☘️Skills 在主流 AI 编程工具中的应用 * 2.4 ☘️Skills 的设计原则 * 三、🍀追问 一、🍀Skills 1.1 ☘️概念 Skills 就是给 AI Agent 写的操作手册,