主流大模型介绍(GPT、Llama、ChatGLM、Qwen、deepseek)

主流大模型介绍(GPT、Llama、ChatGLM、Qwen、deepseek)

GPT系列模型

一、ChatGPT 的本质

  • 发布者:OpenAI(2022年11月30日)
  • 类型:聊天机器人模型,基于自然语言处理技术
  • 核心能力:理解语言、生成对话、撰写邮件/文案/代码、翻译等
  • 增长数据:2个月用户破1亿,日活约1300万

二、GPT 系列模型演进对比

模型发布时间参数量核心创新主要局限
GPT-12018.061.17亿引入生成式预训练 + Transformer Decoder语言模型单向;需微调才能泛化
GPT-22019.0215亿多任务学习 + Zero-shot 能力无监督能力仍有限
GPT-32020.051750亿Few-shot 学习 + Sparse Attention成本高、长文本不稳定、内容不可控
ChatGPT2022.11基于GPT-3引入 RLHF(人类反馈强化学习)服务不稳定、可能生成错误信息

三、核心技术点回顾

1. GPT-1
  • 使用单向 Transformer Decoder(去掉了 Encoder-Decoder Attention)
  • 擅长:自然语言生成(NLG)
  • 不擅长:自然语言理解(NLU,相比BERT)
2. GPT-2
  • 结构微调:Layer Normalization 前置、增加序列长度到1024
  • 核心理念:无监督多任务学习
  • 贡献:验证了大模型 + 大数据的迁移能力
3. GPT-3
  • 引入 Sparse Attention,降低复杂度 O(n²) → O(n log n)
  • 支持 Few-shot / One-shot / Zero-shot
  • 不再对每个任务进行微调(降低成本)

Sparse Attention 稀释注意力,Sparse Attention 通过只让每个 token 关注局部邻居和部分远距离 token,将注意力计算复杂度从 O(n²) 降到 O(n·log n),使 GPT-3 能够高效处理长序列文本,大幅增强了长文本处理能力,节省了计算资源用来处理更长的文本。

4. ChatGPT
  • 解决“模型能力不一致”问题(即训练好但实际表现不符合人类预期)
  • 方法:RLHF(人类反馈强化学习)
    • 人类对模型输出进行排序
    • 训练奖励模型
    • 使用强化学习优化生成策略
RLHF >> SFT、RM、PPO

SFT  >> Supervised Fine-Tuning 监督微调,使用人工标注引导模型学习人类偏好

RM  >> Reward Model 训练奖励模型

PPO >> 用 PPO 算法更新模型,让SFT模型根据奖励模型的反馈不断改进



1. SFT 阶段:人类通过标注理想答案,监督微调大模型,让其初步学习人类偏好
2. RM 阶段:人类对模型生成的多个答案进行排序,用这些排序数据训练一个奖励模型
3. PPO 阶段:用奖励模型打出的分数作为反馈信号,通过强化学习让大模型不断优化



人类标注 → SFT 微调 → 人类排序 → RM 奖励模型 → PPO 强化学习 → ChatGPT

后序RLHF 因人工标注成本问题进阶RLAIF >> 基于AI反馈的强化学习 LLM有这个能力

四、GPT vs BERT 本质区别

维度GPTBERT
架构Transformer DecoderTransformer Encoder
注意力方向单向(从左到右)双向
擅长任务文本生成(NLG)文本理解(NLU)

五、ChatGPT 优缺点总结

✅ 优点
  • 回答更理性、全面、多角度
  • 降低学习与内容创作成本
❌ 缺点
  • 服务不稳定
  • 可能“一本正经地胡说八道”

六、GPT总结

ChatGPT 的成功并非一蹴而就,而是 GPT 系列模型四年演进的集大成者。从 GPT-1 的单向生成,到 GPT-2 的多任务尝试,再到 GPT-3 的规模爆发,最后通过 RLHF 实现人类对齐 —— 这是一条从“模型能力”走向“人类价值对齐”的技术路径。ChatGPT 的真正突破,不只是大,而是学会了“听人话,说人话”。

LLM 主流开源大模型

一、主流大模型概览

模型开发者特点开源协议
LLaMAMeta开源先驱,Llama 3 支持商用Llama 协议(巨头需单独授权)
ChatGLM清华中英双语,6B 可跑消费级显卡开源
Qwen阿里多语言,Qwen2.5 支持 1M 上下文Apache 2.0
Baichuan百川智能中英双语,可商用开源
Yi零一万物中英双语,34B 性能对标 LLaMA-2开源
DeepSeek深度求索MoE 架构,671B 参数,MIT 协议MIT(最宽松)

二、各模型核心亮点

🦙 LLaMA(Meta)
SwiGLU + RMSNorm + RoPE

SwiGLU  >>   ff前馈连接层替换relu,门控机制增强非线性能力,避免神经元死亡,收敛更快

        非线性特征信息提取能力+++

RMSNorm >> 层归一化前置,只计算方差不计算均值,去掉了bias计算,参数量降一倍

RoPE  >>  绝对位置编码➕相对位置编码,通过在Attention计算中注意旋转矩阵实现
  • 迭代:Llama 1(研究用)→ Llama 2(免费商用)→ Llama 3(405B 超大)
  • 核心改进:SwiGLU + RMSNorm + RoPE
  • 衍生模型:Alpaca、Vicuna、BELLE、Chinese LLaMA
🇨🇳 ChatGLM(清华)
Prefix-Decoder

本质是利用decoder实现 (encoder中双向注意力机制➕MLM机制)➕decoder中单向预测

输入序列Prefix 前缀部分使用双向注意力➕MLM, 预测序列Generation使用单向注意力 

结合Bert双向理解  ➕ GPT 单向生成
  • 特点:中英双语,6B 可在消费级显卡运行
  • 迭代:GLM-130B → ChatGLM-6B → GLM-4(128K 上下文)
  • 技术:Prefix-Decoder(双向注意力)
☁️ Qwen(阿里)
Llama的SwiGLU➕RMSNorm➕RPPE 

Deepseek的MOE混合专家机制Plus版(激活率3.7%)➕量化优化

独创的混合注意力机制
  • 迭代:Qwen1.5(32K)→ Qwen2(128K)→ Qwen2.5(1M 上下文)→ Qwen3(235B MoE)
  • 特色:支持百万 token 上下文,多模态版本 Qwen2.5-VL
🔥 DeepSeek(深度求索)
MLA 多头潜在注意力,利用低秩压缩技术,将模型参数压缩到极致

MOE 混合专家机制,ff前馈连接层整体分为N个专家主导,利用linear层加权求和的方式算出专家的得分logits,利用softmax算出专家的权重比例,topk选择排名靠前的专家进行激活计算,抓重点,专业的事交给专业的部分搞定,大幅节省算力(激活率 5.5%)

FP8  采用FP8精度,量化压缩50%
RLAIF AI强化学习,节省人工标注成本,让模型更懂人性,听人话

        AI标注>>有监督微调>>排序实现奖励模型>>PPO强化学习>>反向促进模型成长

Deepseek Sparse Attention 稀疏注意力机制,抓重点部分做计算,节省半数算力

DSA是通过linear层不断更新参数,不断学习如何筛选更优质的注意力部分
混合专家机制MOE专项理解:

混合专家模式MOE的意义从来不是像MLA或者DSA这样直接的节省参数计算量,反而分配多个专家会导致算力消耗翻倍,但是收益确实指数级增长的,利用低算力的成本,敲动高算力成果



处理层级是ff前馈连接层,假定100个专家,我们给这100个专家均配备标准的ff层用以反向梯度更新参数,重点是我们提前对输入维度经过linear层输出到100个logits(对应100个专家),经过softmax(logtis)得到相应的专家权重分布比例,经过topv可以得到权重靠前的5个专家,我们通过激活靠前的5个专家来更新他们的参数,从而达到用5倍算力撬动100倍算力的杠杆效果,激活率5%



激活专家的方式是通过将专家权重矩阵中不需要计算的专家权重置为0,来规避他们的更新,同时我们引入惩罚系数,强制模型雨露均沾,避免一些专家饿死,让他们都能得到参数的更新,这就是deepseek的负载均衡机制(惩罚系数)

MOE源码剖析

# 共享+路由专家模型 import torch import torch.nn as nn import torch.nn.functional as F # ===================== 专家网络定义 ===================== class Expert(nn.Module): def __init__(self, input_dim, hidden_dim, output_dim): super().__init__() # 第一层全连接层,将输入维度映射到隐藏层维度 self.fc1 = nn.Linear(input_dim, hidden_dim) # 第二层全连接层,将隐藏层映射到输出维度 self.fc2 = nn.Linear(hidden_dim, output_dim) def forward(self, x): # 先经过第一层并激活 x = F.relu(self.fc1(x)) # 再经过第二层输出 return self.fc2(x) # ===================== 路由门控网络定义 ===================== class RoutingGate(nn.Module): def __init__(self, input_dim, num_routed_experts, k=2): super().__init__() # 全连接层输出每个专家的分数 self.fc = nn.Linear(input_dim, num_routed_experts) self.k = k # Top-k,表示每个输入只选择k个专家 def forward(self, x): # logits: [batch, num_routed_experts],每个专家的分数 logits = self.fc(x) # 取Top-k分数及其索引 topk_val, topk_idx = torch.topk(logits, self.k, dim=-1) # 对Top-k分数做softmax,得到归一化权重 weights = F.softmax(topk_val, dim=-1) print("weights:", weights) # 构造与logits同形状的全零权重 routed_weights = torch.zeros_like(logits) # 将Top-k权重填入对应位置,其余为0 routed_weights.scatter_(-1, topk_idx, weights) print("Routed weights:", routed_weights) return routed_weights # [batch, num_routed_experts] # ===================== MoE主结构:包含路由专家和共享专家 ===================== class MoEWithRouting(nn.Module): def __init__( self, input_dim, hidden_dim, output_dim, num_routed_experts, num_shared_experts, k=2, ): super().__init__() # 路由专家列表,每个专家是一个Expert实例 self.routed_experts = nn.ModuleList( [ Expert(input_dim, hidden_dim, output_dim) for _ in range(num_routed_experts) ] ) # 共享专家列表 self.shared_experts = nn.ModuleList( [ Expert(input_dim, hidden_dim, output_dim) for _ in range(num_shared_experts) ] ) # 路由门控网络 self.routing_gate = RoutingGate(input_dim, num_routed_experts, k) # 共享专家的权重参数(可学习),初始均分 self.shared_weights = nn.Parameter( torch.ones(num_shared_experts) / num_shared_experts, requires_grad=True ) def forward(self, x): # ========== 路由专家部分 ========== # 计算每个输入分配到各个路由专家的权重 [batch, num_routed_experts] routed_weights = self.routing_gate(x) print("routed_weights:", routed_weights) # 计算所有路由专家的输出,堆叠成 [batch, output_dim, num_routed_experts] routed_outputs = torch.stack( [expert(x) for expert in self.routed_experts], dim=2 ) print("routed_outputs:", routed_outputs) # 按权重加权求和,得到路由专家的最终输出 [batch, output_dim] routed_result = torch.sum(routed_weights.unsqueeze(1) * routed_outputs, dim=2) print("routed_result:", routed_result) # ========== 共享专家部分 ========== # 计算所有共享专家的输出,堆叠成 [batch, output_dim, num_shared_experts] shared_outputs = torch.stack( [expert(x) for expert in self.shared_experts], dim=2 ) # 对共享专家权重做softmax归一化 [num_shared_experts] shared_weights = F.softmax(self.shared_weights, dim=0) # 按权重加权求和,得到共享专家的最终输出 [batch, output_dim] shared_result = torch.sum( shared_weights.unsqueeze(0).unsqueeze(1) * shared_outputs, dim=2 ) # ========== 融合输出 ========== # 路由专家输出与共享专家输出相加,作为最终输出 output = routed_result + shared_result return output # ===================== 测试代码 ===================== # 定义各参数 input_dim = 10 # 输入特征维度 hidden_dim = 20 # 专家网络隐藏层维度 output_dim = 5 # 输出特征维度 num_routed_experts = 4 # 路由专家数量 num_shared_experts = 2 # 共享专家数量 k = 2 # Top-k,路由门控每次选择的专家数 seq_len = 8 # 输入序列长度(batch size) # 实例化模型 model = MoEWithRouting( input_dim, hidden_dim, output_dim, num_routed_experts, num_shared_experts, k ) # 构造随机输入 x = torch.randn(seq_len, input_dim) # 前向传播 output = model(x) # 打印输出形状和内容 print("Output shape:", output.shape, output) # [seq_len, output_dim] 

数据流转图示

""" ═══════════════════════════════════════════════════════════════════ 输入数据 x 形状: [8, 10] (batch=8, dim=10) ═══════════════════════════════════════════════════════════════════ │ ┌─────────────────┼─────────────────┐ │ │ │ ▼ ▼ ▼ ┌────────┐ ┌────────┐ ┌────────┐ │门控网络│ │路由专家│ │共享专家│ │ │ │ (4个) │ │ (2个) │ └────────┘ └────────┘ └────────┘ │ │ │ ▼ ▼ ▼ ┌────────┐ ┌────────────────────────────┐ │[8,4] │ │ 每个专家内部: │ │(权重) │ │ ┌────────────────────────┐ │ └────────┘ │ │ 输入: [8,10] │ │ │ │ │ ↓ │ │ │ │ │ fc1: Linear(10→20) │ │ │ │ │ ↓ │ │ │ │ │ ReLU │ │ │ │ │ ↓ │ │ │ │ │ fc2: Linear(20→5) │ │ │ │ │ ↓ │ │ │ │ │ 输出: [8,5] │ │ │ │ └────────────────────────┘ │ │ │ │ │ │ 4个专家各自输出: │ │ │ E0: [8,5] │ │ │ E1: [8,5] │ │ │ E2: [8,5] │ │ │ E3: [8,5] │ │ │ ↓ │ │ │ stack(dim=2) │ │ │ ↓ │ │ │ [8,5,4] ←────────────┐ │ │ │ │ │ │ └───────────────────────┼────┘ │ │ ▼ ▼ ┌─────────────────────────────────────────────────┐ │ 路由加权求和: [8,1,4] × [8,5,4] = [8,5,4] │ │ sum(dim=2) → [8,5] │ └─────────────────────────────────────────────────┘ │ ▼ routed_result: [8,5] │ │ ┌────────────────────────────┐ │ │ 共享专家 (2个): │ │ │ 每个专家内部: │ │ │ 输入: [8,10] │ │ │ ↓ │ │ │ fc1: Linear(10→20) │ │ │ ↓ │ │ │ ReLU │ │ │ ↓ │ │ │ fc2: Linear(20→5) │ │ │ ↓ │ │ │ 输出: [8,5] │ │ │ │ │ │ S0: [8,5] │ │ │ S1: [8,5] │ │ │ ↓ │ │ │ stack(dim=2) │ │ │ ↓ │ │ │ [8,5,2] │ │ └────────────────────────────┘ │ │ │ ▼ │ shared_weights: [2] │ │ │ ▼ │ ┌─────────────────────────────┐ │ │ 共享加权求和: │ │ │ [1,1,2] × [8,5,2] = [8,5,2] │ │ │ sum(dim=2) → [8,5] │ │ └─────────────────────────────┘ │ │ │ ▼ │ shared_result: [8,5] │ │ └──────┬───────┘ ▼ ┌─────────────────────────┐ │ 最终输出 = routed + shared │ │ [8,5] + [8,5] = [8,5] │ └─────────────────────────┘ │ ▼ ════════════════════════════ 最终输出: [8, 5] ════════════════════════════ """
  • 核心技术
    • MLA(多头潜在注意力):减少记忆体 30%
    • MoE(混合专家):671B 总参数,仅激活 37B
    • FP8 混合精度训练:省资源、加速
  • 开源协议:MIT(最宽松,可自由商用)

三、硬件配置参考(本地部署)

模型大小推理显存 (FP16)推荐场景
7B10-14 GB中小企业应用
13B20-26 GB企业级应用
32B64-70 GB复杂 NLP 任务
70B140 GB+超大规模任务
304B+600 GB+(需量化)国家/科研级

参数 FP16,两倍打底
推理加三成,全量训练乘六倍
量化降一半,LoRA 省大头, 不训练全部参数,只训练“小插件”(低秩矩阵)

主要就是两个途径,1是通过量化压缩显存 2是通过低秩矩阵转换,减少参数量级(lora)


四、开源协议速查

协议特点代表模型
MIT最宽松,可自由商用DeepSeek
Apache 2.0含专利授权Qwen、Grok-1
Llama 协议月活超 7 亿需单独授权LLaMA 系列
MCP模型上下文协议(Anthropic)标准化 AI 工具调用

五、一句话总结

LLaMA 是开源先驱

ChatGLM 中文友好

Qwen 长上下文最强

DeepSeek 架构最创新且协议最宽松。

Read more

AIGC实战——CycleGAN详解与实现

AIGC实战——CycleGAN详解与实现

AIGC实战——CycleGAN详解与实现 * 0. 前言 * 1. CycleGAN 基本原理 * 2. CycleGAN 模型分析 * 3. 实现 CycleGAN * 小结 * 系列链接 0. 前言 CycleGAN 是一种用于图像转换的生成对抗网络(Generative Adversarial Network, GAN),可以在不需要配对数据的情况下将一种风格的图像转换成另一种风格,而无需为每一对输入-输出图像配对训练数据。CycleGAN 的核心思想是利用两个生成器和两个判别器,它们共同学习两个域之间的映射关系。例如,将马的图像转换成斑马的图像,或者将苹果图像转换为橙子图像。在本节中,我们将学习 CycleGAN 的基本原理,并实现该模型用于将夏天的风景图像转换成冬天的风景图像,或反之将冬天的风景图像转换为夏天的风景图像。 1. CycleGAN 基本原理 CycleGAN 是一种无需配对的图像转换技术,它可以将一个图像域中的图像转换为另一个图像域中的图像,而不需要匹配这两个域中的图像。它使用两个生成器和两个判别器,其中一个生成器将一个域中的图像

Python 实战:快速上手 PyQt6+Stable Diffusion+OWLv2 图像工具​

Python 实战:快速上手 PyQt6+Stable Diffusion+OWLv2 图像工具​

摘要 这篇文章主要讲如何用 Python 3.12 做一个 “图像生成 + 自动标注” 的桌面工具,用 PyQt6 做界面,集成了 Stable Diffusion 文生图和 OWLv2 自动标注功能,步骤简单,搭配截图就能跟着操作,适合想快速落地图像相关任务的开发者。 一、先搞懂核心技术与价值 1.1 用了哪些技术? * 界面:PyQt6(拖控件做可视化界面,不用写太多 UI 代码); * 文生图:Stable Diffusion(用 Diffusers 框架调用,支持本地模型和在线下载); * 自动标注:OWLv2(能自定义标注类别,比如 “猫”“狗”,不用预训练); * 辅助:Pillow 处理图片、HuggingFace

银发族的AI搭子:AIGC如何陪爸妈唠嗑、防骗又解闷?

银发族的AI搭子:AIGC如何陪爸妈唠嗑、防骗又解闷?

银发族的AI搭子:AIGC如何陪爸妈唠嗑、防骗又解闷? * 银发族的AI搭子:AIGC如何陪爸妈唠嗑、防骗又解闷? * 先整点能跑起来的代码,别光唠概念 * 1. 语音唤醒 + 方言 ASR:让“川普”也能被听懂 * 陪聊模块:把 GPT 塞进口袋,语气得像亲闺女 * 2. 先写 Prompt,让 AI 带上“闺女滤镜” * 3. 再挂本地知识库,防止“ hallucination 吓坏爸妈” * 防诈骗:实时打断 + 亲属音色预警 * 4. 电话拦截 + 实时语音转文字,关键词触发警报 * 解闷子:老故事 + 戏曲 + 当年的广播腔 * 5. 定时任务 + 音色克隆,让“已故爷爷”讲故事(伦理提示后边聊)

N46Whisper:让日语视频字幕制作变得如此简单

N46Whisper:让日语视频字幕制作变得如此简单 【免费下载链接】N46WhisperWhisper based Japanese subtitle generator 项目地址: https://gitcode.com/gh_mirrors/n4/N46Whisper 还在为日语视频制作字幕而头疼吗?N46Whisper正是你一直在寻找的智能解决方案!这款基于云端AI技术的日语语音识别工具,彻底改变了传统字幕制作的繁琐流程,让每个人都能轻松上手。 为什么你需要这款工具 想象一下,原本需要数小时手动打字的工作,现在只需要几分钟就能完成。这就是N46Whisper带来的效率革命: * 零门槛使用:无需安装任何软件,打开浏览器就能开始工作 * AI精准识别:采用先进的Whisper技术,日语语音识别准确率惊人 * 云端极速处理:借助Google Colab的强大计算能力,处理速度超乎想象 * 双格式支持:ass和srt两种主流格式任你选择 快速入门:三步搞定日语字幕 第一步:准备环境 打开Google Colab,上传N46Whisper.ipynb文件,系