【AI大模型】探索GPT模型的奥秘:引领自然语言处理的新纪元

【AI大模型】探索GPT模型的奥秘:引领自然语言处理的新纪元
d8a1c3f6ba174a118fb99fec57ba9d30.jpeg

目录

🍔 GPT介绍

🍔 GPT的架构

🍔 GPT训练过程

3.1 无监督的预训练语言模型

3.2 有监督的下游任务fine-tunning

🍔 小结

93ed7c15d0f847b8b761e3a66768683f.gif

 

学习目标了解什么是GPT.掌握GPT的架构.掌握GPT的预训练任务.

🍔 GPT介绍

  • GPT是OpenAI公司提出的一种语言预训练模型.
  • OpenAI在论文<< Improving Language Understanding by Generative Pre-Training >>中提出GPT模型.
  • OpenAI后续又在论文<< Language Models are Unsupervised Multitask Learners >>中提出GPT2模型.
  • GPT和GPT2模型结构差别不大, 但是GPT2采用了更大的数据集进行训练.
  • OpenAI GPT模型是在Google BERT模型之前提出的, 与BERT最大的区别在于GPT采用了传统的语言模型方法进行预训练, 即使用单词的上文来预测单词, 而BERT是采用了双向上下文的信息共同来预测单词.
  • 正是因为训练方法上的区别, 使得GPT更擅长处理自然语言生成任务(NLG), 而BERT更擅长处理自然语言理解任务(NLU).

🍔 GPT的架构

  • 看三个语言模型的对比架构图, 中间的就是GPT:


8151a9da4e7e44d9bb1b3a3b54dbbdb0.png

 

从上图可以很清楚的看到GPT采用的是单向Transformer模型, 例如给定一个句子[u1, u2, ..., un], GPT在预测单词ui的时候只会利用[u1, u2, ..., u(i-1)]的信息, 而BERT会同时利用上下文的信息[u1, u2, ..., u(i-1), u(i+1), ..., un].作为两大模型的直接对比, BERT采用了Transformer的Encoder模块, 而GPT采用了Transformer的Decoder模块. 并且GPT的Decoder Block和经典Transformer Decoder Block还有所不同, 如下图所示:
e6de7ee9a94d4118822cd1ba957ff378.png

 

如上图所示, 经典的Transformer Decoder Block包含3个子层, 分别是Masked Multi-Head Attention层, encoder-decoder attention层, 以及Feed Forward层. 但是在GPT中取消了第二个encoder-decoder attention子层, 只保留Masked Multi-Head Attention层, 和Feed Forward层.作为单向Transformer Decoder模型, GPT利用句子序列信息预测下一个单词的时候, 要使用Masked Multi-Head Attention对单词的下文进行遮掩, 来防止未来信息的提前泄露. 例如给定一个句子包含4个单词[A, B, C, D], GPT需要用[A]预测B, 用[A, B]预测C, 用[A, B, C]预测D. 很显然的就是当要预测B时, 需要将[B, C, D]遮掩起来.


3d51ef0fb229496bb40ad16fbc353ef5.png

 

具体的遮掩操作是在slef-attention进行softmax之前进行的, 一般的实现是将MASK的位置用一个无穷小的数值-inf来替换, 替换后执行softmax计算得到新的结果矩阵. 这样-inf的位置就变成了0. 如上图所示, 最后的矩阵可以很方便的做到当利用A预测B的时候, 只能看到A的信息; 当利用[A, B]预测C的时候, 只能看到A, B的信息.注意: 对比于经典的Transformer架构, 解码器模块采用了6个Decoder Block; GPT的架构中采用了12个Decoder Block.

 

2375ea08000d42758eb9b70920722764.png

🍔 GPT训练过程

GPT的训练也是典型的两阶段过程:

  • 第一阶段: 无监督的预训练语言模型.
  • 第二阶段: 有监督的下游任务fine-tunning.

3.1 无监督的预训练语言模型

给定句子U = [u1, u2, ..., un], GPT训练语言模型时的目标是最大化下面的似然函数:

d873c04a2a294baea5fe56d9f4bcd832.png

有上述公式可知, GPT是一个单向语言模型, 假设输入张量用h0表示, 则计算公式如下:

2c768e9cbfc348778b5a68f33632473c.png

其中Wp是单词的位置编码, We是单词本身的word embedding. Wp的形状是[max_seq_len, embedding_dim], We的形状是[vocab_size, embedding_dim].

得到输入张量h0后, 要将h0传入GPT的Decoder Block中, 依次得到ht:

0b1e3e7a999448c9babe08db31e80313.png

最后通过得到的ht来预测下一个单词:

60c4bd238e1b42ed97ba597575690ff2.png

3.2 有监督的下游任务fine-tunning

GPT经过预训练后, 会针对具体的下游任务对模型进行微调. 微调采用的是有监督学习, 训练样本包括单词序列[x1, x2, ..., xn]和label y. GPT微调的目标任务是根据单词序列[x1, x2, ..., xn]预测标签y.

d0383974b2494769abb4f6b57c32bda2.png

其中Wy��表示预测输出的矩阵参数, 微调任务的目标是最大化下面的函数:

2099ac6959c04b68ac6d6a2c5bc9f0da.png

综合两个阶段的目标任务函数, 可知GPT的最终优化函数为:

a4c73c86ddcb48ff9cad0c0f2ea6353f.png

🍔 小结

  • 学习了什么是GPT.
    • GPT是OpenAI公司提出的一种预训练语言模型.
    • 本质上来说, GPT是一个单向语言模型.
  • 学习了GPT的架构.
    • GPT采用了Transformer架构中的解码器模块.
    • GPT在使用解码器模块时做了一定的改造, 将传统的3层Decoder Block变成了2层Block, 删除了encoder-decoder attention子层, 只保留Masked Multi-Head Attention子层和Feed Forward子层.
    • GPT的解码器总共是由12个改造后的Decoder Block组成的.
  • 学习了GPT的预训练任务.
    • 第一阶段: 无监督的预训练语言模型. 只利用单词前面的信息来预测当前单词.
    • 第二阶段: 有监督的下游任务fine-tunning.
1db050c85ff5461ca02276ddc4db148c.gif
e247add1f1514310a62eaa99576082d3.jpeg

 

Read more

保姆级教程:OpenClaw 本地 AI 助手安装、配置与钉钉接入全流程

保姆级教程:OpenClaw 本地 AI 助手安装、配置与钉钉接入全流程

文章目录 * 保姆级教程:OpenClaw 本地 AI 助手安装、配置与钉钉接入全流程 * 🌟 引言 * 第一步:环境准备 * 1. 安装 Node.js * 2. 安装 Git * 第二步:安装 OpenClaw * 方式一:使用 npm 全局安装(通用推荐) * 方式二:Windows 快捷安装脚本 * 第三步:首次运行与初始化配置 (Onboard) * 1. 环境依赖检查 * 2. 向导配置流程 * 3. 网关启动与测试 * 第四步:进阶玩法——将 OpenClaw 接入钉钉机器人 * 1. 创建钉钉企业内部应用 * 2. 通过 npm 安装钉钉插件 * 3. 测试通道通讯

OpenClaw 的免费 AI 大模型及其配置方法

OpenClaw 中的“自由模型”可能意味着两种不同的东西,而混淆这两种模型正是大多数人浪费时间的地方。 有一种“免费”是真正意义上的免费,因为模型运行在本地,你只需要支付 CPU、内存、GPU 和电力费用。例如 Ollama 或你自行托管的 OpenAI 兼容运行时环境。 另一种是“免费套餐”,即托管服务提供商提供一定的配额、积分或 OAuth 访问权限。这种套餐虽然不错,但通常会有速率限制、策略限制,而且偶尔还会出现意外中断或流量突然上限的情况。 本指南篇幅较长,因为模型配置看似简单,但一旦遇到问题,例如工具调用速度变慢、出现 429 错误,或者某个代理使用的身份验证配置文件与预期不符等,就会发现其中的奥妙。我们将力求实用。 如果您是 OpenClaw 新手,想先了解基础知识,可以阅读 OpenClaw 简介及其工作原理。如果您已经运行了 OpenClaw,接下来我们来正确地连接模型。 OpenClaw

彻底解决 OpenClaw 总是“失忆”!AI 编程上下文 Token 限制剖析与 6 大扩容实战

彻底解决 OpenClaw 总是“失忆”!AI 编程上下文 Token 限制剖析与 6 大扩容实战

为什么 OpenClaw 上下文记忆这么短?完整原因与解决方案 核心定义: OpenClaw 的上下文记忆短是指其在单次对话中能记住的对话历史和代码内容有限,通常受限于底层模型的 token 窗口(如 128K tokens)和会话管理策略。当对话轮次增多或涉及大量代码文件时,早期内容会被自动遗忘,导致 AI 无法参考之前的讨论或代码修改记录。 OpenClaw 上下文记忆的技术原理 OpenClaw 作为 AI 辅助编程工具,其上下文记忆受三层因素制约: 模型层限制 * Token 窗口上限:底层大语言模型(如 Claude 3.5 Sonnet)的上下文窗口通常为 128K-200K tokens * 1 token ≈ 0.75 个英文单词 或 1-2 个中文字符 * 一个 2000 行的 Python

对比传统方法:AI处理7v7.7cc历史观看数据的效率优势

快速体验 1. 打开 InsCode(快马)平台 https://www.inscode.net 2. 点击'项目生成'按钮,等待项目生成完整后预览效果 输入框内输入如下内容: 开发一个效率对比工具,分别用传统方法和AI方法处理相同的7v7.7cc历史观看数据集,记录处理时间、准确率和资源消耗。要求生成对比报告,突出AI方法的优势。使用Python进行数据处理,前端展示用HTML/CSS/JavaScript。 在日常数据分析工作中,我们经常需要处理类似7v7.7cc这样的历史观看数据。传统的手动处理方法不仅耗时耗力,还容易出现错误。最近我尝试用AI自动化处理这类数据,效果令人惊喜。 传统处理方法的痛点 1. 数据清洗耗时:需要手动检查并修正格式不统一、缺失值等问题,一个中型数据集可能需要数小时。 2. 分析过程繁琐:要编写大量代码实现基础统计功能,如计算观看时长分布、用户活跃时段等。 3. 可视化制作困难:使用传统图表库需要反复调整参数才能得到满意的展示效果。