主流大模型介绍(GPT、Llama、ChatGLM、Qwen、deepseek)

主流大模型介绍(GPT、Llama、ChatGLM、Qwen、deepseek)

GPT系列模型

一、ChatGPT 的本质

  • 发布者:OpenAI(2022年11月30日)
  • 类型:聊天机器人模型,基于自然语言处理技术
  • 核心能力:理解语言、生成对话、撰写邮件/文案/代码、翻译等
  • 增长数据:2个月用户破1亿,日活约1300万

二、GPT 系列模型演进对比

模型发布时间参数量核心创新主要局限
GPT-12018.061.17亿引入生成式预训练 + Transformer Decoder语言模型单向;需微调才能泛化
GPT-22019.0215亿多任务学习 + Zero-shot 能力无监督能力仍有限
GPT-32020.051750亿Few-shot 学习 + Sparse Attention成本高、长文本不稳定、内容不可控
ChatGPT2022.11基于GPT-3引入 RLHF(人类反馈强化学习)服务不稳定、可能生成错误信息

三、核心技术点回顾

1. GPT-1
  • 使用单向 Transformer Decoder(去掉了 Encoder-Decoder Attention)
  • 擅长:自然语言生成(NLG)
  • 不擅长:自然语言理解(NLU,相比BERT)
2. GPT-2
  • 结构微调:Layer Normalization 前置、增加序列长度到1024
  • 核心理念:无监督多任务学习
  • 贡献:验证了大模型 + 大数据的迁移能力
3. GPT-3
  • 引入 Sparse Attention,降低复杂度 O(n²) → O(n log n)
  • 支持 Few-shot / One-shot / Zero-shot
  • 不再对每个任务进行微调(降低成本)

Sparse Attention 稀释注意力,Sparse Attention 通过只让每个 token 关注局部邻居和部分远距离 token,将注意力计算复杂度从 O(n²) 降到 O(n·log n),使 GPT-3 能够高效处理长序列文本,大幅增强了长文本处理能力,节省了计算资源用来处理更长的文本。

4. ChatGPT
  • 解决“模型能力不一致”问题(即训练好但实际表现不符合人类预期)
  • 方法:RLHF(人类反馈强化学习)
    • 人类对模型输出进行排序
    • 训练奖励模型
    • 使用强化学习优化生成策略
RLHF >> SFT、RM、PPO

SFT  >> Supervised Fine-Tuning 监督微调,使用人工标注引导模型学习人类偏好

RM  >> Reward Model 训练奖励模型

PPO >> 用 PPO 算法更新模型,让SFT模型根据奖励模型的反馈不断改进



1. SFT 阶段:人类通过标注理想答案,监督微调大模型,让其初步学习人类偏好
2. RM 阶段:人类对模型生成的多个答案进行排序,用这些排序数据训练一个奖励模型
3. PPO 阶段:用奖励模型打出的分数作为反馈信号,通过强化学习让大模型不断优化



人类标注 → SFT 微调 → 人类排序 → RM 奖励模型 → PPO 强化学习 → ChatGPT

后序RLHF 因人工标注成本问题进阶RLAIF >> 基于AI反馈的强化学习 LLM有这个能力

四、GPT vs BERT 本质区别

维度GPTBERT
架构Transformer DecoderTransformer Encoder
注意力方向单向(从左到右)双向
擅长任务文本生成(NLG)文本理解(NLU)

五、ChatGPT 优缺点总结

✅ 优点
  • 回答更理性、全面、多角度
  • 降低学习与内容创作成本
❌ 缺点
  • 服务不稳定
  • 可能“一本正经地胡说八道”

六、GPT总结

ChatGPT 的成功并非一蹴而就,而是 GPT 系列模型四年演进的集大成者。从 GPT-1 的单向生成,到 GPT-2 的多任务尝试,再到 GPT-3 的规模爆发,最后通过 RLHF 实现人类对齐 —— 这是一条从“模型能力”走向“人类价值对齐”的技术路径。ChatGPT 的真正突破,不只是大,而是学会了“听人话,说人话”。

LLM 主流开源大模型

一、主流大模型概览

模型开发者特点开源协议
LLaMAMeta开源先驱,Llama 3 支持商用Llama 协议(巨头需单独授权)
ChatGLM清华中英双语,6B 可跑消费级显卡开源
Qwen阿里多语言,Qwen2.5 支持 1M 上下文Apache 2.0
Baichuan百川智能中英双语,可商用开源
Yi零一万物中英双语,34B 性能对标 LLaMA-2开源
DeepSeek深度求索MoE 架构,671B 参数,MIT 协议MIT(最宽松)

二、各模型核心亮点

🦙 LLaMA(Meta)
SwiGLU + RMSNorm + RoPE

SwiGLU  >>   ff前馈连接层替换relu,门控机制增强非线性能力,避免神经元死亡,收敛更快

        非线性特征信息提取能力+++

RMSNorm >> 层归一化前置,只计算方差不计算均值,去掉了bias计算,参数量降一倍

RoPE  >>  绝对位置编码➕相对位置编码,通过在Attention计算中注意旋转矩阵实现
  • 迭代:Llama 1(研究用)→ Llama 2(免费商用)→ Llama 3(405B 超大)
  • 核心改进:SwiGLU + RMSNorm + RoPE
  • 衍生模型:Alpaca、Vicuna、BELLE、Chinese LLaMA
🇨🇳 ChatGLM(清华)
Prefix-Decoder

本质是利用decoder实现 (encoder中双向注意力机制➕MLM机制)➕decoder中单向预测

输入序列Prefix 前缀部分使用双向注意力➕MLM, 预测序列Generation使用单向注意力 

结合Bert双向理解  ➕ GPT 单向生成
  • 特点:中英双语,6B 可在消费级显卡运行
  • 迭代:GLM-130B → ChatGLM-6B → GLM-4(128K 上下文)
  • 技术:Prefix-Decoder(双向注意力)
☁️ Qwen(阿里)
Llama的SwiGLU➕RMSNorm➕RPPE 

Deepseek的MOE混合专家机制Plus版(激活率3.7%)➕量化优化

独创的混合注意力机制
  • 迭代:Qwen1.5(32K)→ Qwen2(128K)→ Qwen2.5(1M 上下文)→ Qwen3(235B MoE)
  • 特色:支持百万 token 上下文,多模态版本 Qwen2.5-VL
🔥 DeepSeek(深度求索)
MLA 多头潜在注意力,利用低秩压缩技术,将模型参数压缩到极致

MOE 混合专家机制,ff前馈连接层整体分为N个专家主导,利用linear层加权求和的方式算出专家的得分logits,利用softmax算出专家的权重比例,topk选择排名靠前的专家进行激活计算,抓重点,专业的事交给专业的部分搞定,大幅节省算力(激活率 5.5%)

FP8  采用FP8精度,量化压缩50%
RLAIF AI强化学习,节省人工标注成本,让模型更懂人性,听人话

        AI标注>>有监督微调>>排序实现奖励模型>>PPO强化学习>>反向促进模型成长

Deepseek Sparse Attention 稀疏注意力机制,抓重点部分做计算,节省半数算力

DSA是通过linear层不断更新参数,不断学习如何筛选更优质的注意力部分
混合专家机制MOE专项理解:

混合专家模式MOE的意义从来不是像MLA或者DSA这样直接的节省参数计算量,反而分配多个专家会导致算力消耗翻倍,但是收益确实指数级增长的,利用低算力的成本,敲动高算力成果



处理层级是ff前馈连接层,假定100个专家,我们给这100个专家均配备标准的ff层用以反向梯度更新参数,重点是我们提前对输入维度经过linear层输出到100个logits(对应100个专家),经过softmax(logtis)得到相应的专家权重分布比例,经过topv可以得到权重靠前的5个专家,我们通过激活靠前的5个专家来更新他们的参数,从而达到用5倍算力撬动100倍算力的杠杆效果,激活率5%



激活专家的方式是通过将专家权重矩阵中不需要计算的专家权重置为0,来规避他们的更新,同时我们引入惩罚系数,强制模型雨露均沾,避免一些专家饿死,让他们都能得到参数的更新,这就是deepseek的负载均衡机制(惩罚系数)

MOE源码剖析

# 共享+路由专家模型 import torch import torch.nn as nn import torch.nn.functional as F # ===================== 专家网络定义 ===================== class Expert(nn.Module): def __init__(self, input_dim, hidden_dim, output_dim): super().__init__() # 第一层全连接层,将输入维度映射到隐藏层维度 self.fc1 = nn.Linear(input_dim, hidden_dim) # 第二层全连接层,将隐藏层映射到输出维度 self.fc2 = nn.Linear(hidden_dim, output_dim) def forward(self, x): # 先经过第一层并激活 x = F.relu(self.fc1(x)) # 再经过第二层输出 return self.fc2(x) # ===================== 路由门控网络定义 ===================== class RoutingGate(nn.Module): def __init__(self, input_dim, num_routed_experts, k=2): super().__init__() # 全连接层输出每个专家的分数 self.fc = nn.Linear(input_dim, num_routed_experts) self.k = k # Top-k,表示每个输入只选择k个专家 def forward(self, x): # logits: [batch, num_routed_experts],每个专家的分数 logits = self.fc(x) # 取Top-k分数及其索引 topk_val, topk_idx = torch.topk(logits, self.k, dim=-1) # 对Top-k分数做softmax,得到归一化权重 weights = F.softmax(topk_val, dim=-1) print("weights:", weights) # 构造与logits同形状的全零权重 routed_weights = torch.zeros_like(logits) # 将Top-k权重填入对应位置,其余为0 routed_weights.scatter_(-1, topk_idx, weights) print("Routed weights:", routed_weights) return routed_weights # [batch, num_routed_experts] # ===================== MoE主结构:包含路由专家和共享专家 ===================== class MoEWithRouting(nn.Module): def __init__( self, input_dim, hidden_dim, output_dim, num_routed_experts, num_shared_experts, k=2, ): super().__init__() # 路由专家列表,每个专家是一个Expert实例 self.routed_experts = nn.ModuleList( [ Expert(input_dim, hidden_dim, output_dim) for _ in range(num_routed_experts) ] ) # 共享专家列表 self.shared_experts = nn.ModuleList( [ Expert(input_dim, hidden_dim, output_dim) for _ in range(num_shared_experts) ] ) # 路由门控网络 self.routing_gate = RoutingGate(input_dim, num_routed_experts, k) # 共享专家的权重参数(可学习),初始均分 self.shared_weights = nn.Parameter( torch.ones(num_shared_experts) / num_shared_experts, requires_grad=True ) def forward(self, x): # ========== 路由专家部分 ========== # 计算每个输入分配到各个路由专家的权重 [batch, num_routed_experts] routed_weights = self.routing_gate(x) print("routed_weights:", routed_weights) # 计算所有路由专家的输出,堆叠成 [batch, output_dim, num_routed_experts] routed_outputs = torch.stack( [expert(x) for expert in self.routed_experts], dim=2 ) print("routed_outputs:", routed_outputs) # 按权重加权求和,得到路由专家的最终输出 [batch, output_dim] routed_result = torch.sum(routed_weights.unsqueeze(1) * routed_outputs, dim=2) print("routed_result:", routed_result) # ========== 共享专家部分 ========== # 计算所有共享专家的输出,堆叠成 [batch, output_dim, num_shared_experts] shared_outputs = torch.stack( [expert(x) for expert in self.shared_experts], dim=2 ) # 对共享专家权重做softmax归一化 [num_shared_experts] shared_weights = F.softmax(self.shared_weights, dim=0) # 按权重加权求和,得到共享专家的最终输出 [batch, output_dim] shared_result = torch.sum( shared_weights.unsqueeze(0).unsqueeze(1) * shared_outputs, dim=2 ) # ========== 融合输出 ========== # 路由专家输出与共享专家输出相加,作为最终输出 output = routed_result + shared_result return output # ===================== 测试代码 ===================== # 定义各参数 input_dim = 10 # 输入特征维度 hidden_dim = 20 # 专家网络隐藏层维度 output_dim = 5 # 输出特征维度 num_routed_experts = 4 # 路由专家数量 num_shared_experts = 2 # 共享专家数量 k = 2 # Top-k,路由门控每次选择的专家数 seq_len = 8 # 输入序列长度(batch size) # 实例化模型 model = MoEWithRouting( input_dim, hidden_dim, output_dim, num_routed_experts, num_shared_experts, k ) # 构造随机输入 x = torch.randn(seq_len, input_dim) # 前向传播 output = model(x) # 打印输出形状和内容 print("Output shape:", output.shape, output) # [seq_len, output_dim] 

数据流转图示

""" ═══════════════════════════════════════════════════════════════════ 输入数据 x 形状: [8, 10] (batch=8, dim=10) ═══════════════════════════════════════════════════════════════════ │ ┌─────────────────┼─────────────────┐ │ │ │ ▼ ▼ ▼ ┌────────┐ ┌────────┐ ┌────────┐ │门控网络│ │路由专家│ │共享专家│ │ │ │ (4个) │ │ (2个) │ └────────┘ └────────┘ └────────┘ │ │ │ ▼ ▼ ▼ ┌────────┐ ┌────────────────────────────┐ │[8,4] │ │ 每个专家内部: │ │(权重) │ │ ┌────────────────────────┐ │ └────────┘ │ │ 输入: [8,10] │ │ │ │ │ ↓ │ │ │ │ │ fc1: Linear(10→20) │ │ │ │ │ ↓ │ │ │ │ │ ReLU │ │ │ │ │ ↓ │ │ │ │ │ fc2: Linear(20→5) │ │ │ │ │ ↓ │ │ │ │ │ 输出: [8,5] │ │ │ │ └────────────────────────┘ │ │ │ │ │ │ 4个专家各自输出: │ │ │ E0: [8,5] │ │ │ E1: [8,5] │ │ │ E2: [8,5] │ │ │ E3: [8,5] │ │ │ ↓ │ │ │ stack(dim=2) │ │ │ ↓ │ │ │ [8,5,4] ←────────────┐ │ │ │ │ │ │ └───────────────────────┼────┘ │ │ ▼ ▼ ┌─────────────────────────────────────────────────┐ │ 路由加权求和: [8,1,4] × [8,5,4] = [8,5,4] │ │ sum(dim=2) → [8,5] │ └─────────────────────────────────────────────────┘ │ ▼ routed_result: [8,5] │ │ ┌────────────────────────────┐ │ │ 共享专家 (2个): │ │ │ 每个专家内部: │ │ │ 输入: [8,10] │ │ │ ↓ │ │ │ fc1: Linear(10→20) │ │ │ ↓ │ │ │ ReLU │ │ │ ↓ │ │ │ fc2: Linear(20→5) │ │ │ ↓ │ │ │ 输出: [8,5] │ │ │ │ │ │ S0: [8,5] │ │ │ S1: [8,5] │ │ │ ↓ │ │ │ stack(dim=2) │ │ │ ↓ │ │ │ [8,5,2] │ │ └────────────────────────────┘ │ │ │ ▼ │ shared_weights: [2] │ │ │ ▼ │ ┌─────────────────────────────┐ │ │ 共享加权求和: │ │ │ [1,1,2] × [8,5,2] = [8,5,2] │ │ │ sum(dim=2) → [8,5] │ │ └─────────────────────────────┘ │ │ │ ▼ │ shared_result: [8,5] │ │ └──────┬───────┘ ▼ ┌─────────────────────────┐ │ 最终输出 = routed + shared │ │ [8,5] + [8,5] = [8,5] │ └─────────────────────────┘ │ ▼ ════════════════════════════ 最终输出: [8, 5] ════════════════════════════ """
  • 核心技术
    • MLA(多头潜在注意力):减少记忆体 30%
    • MoE(混合专家):671B 总参数,仅激活 37B
    • FP8 混合精度训练:省资源、加速
  • 开源协议:MIT(最宽松,可自由商用)

三、硬件配置参考(本地部署)

模型大小推理显存 (FP16)推荐场景
7B10-14 GB中小企业应用
13B20-26 GB企业级应用
32B64-70 GB复杂 NLP 任务
70B140 GB+超大规模任务
304B+600 GB+(需量化)国家/科研级

参数 FP16,两倍打底
推理加三成,全量训练乘六倍
量化降一半,LoRA 省大头, 不训练全部参数,只训练“小插件”(低秩矩阵)

主要就是两个途径,1是通过量化压缩显存 2是通过低秩矩阵转换,减少参数量级(lora)


四、开源协议速查

协议特点代表模型
MIT最宽松,可自由商用DeepSeek
Apache 2.0含专利授权Qwen、Grok-1
Llama 协议月活超 7 亿需单独授权LLaMA 系列
MCP模型上下文协议(Anthropic)标准化 AI 工具调用

五、一句话总结

LLaMA 是开源先驱

ChatGLM 中文友好

Qwen 长上下文最强

DeepSeek 架构最创新且协议最宽松。

Read more

AIGC时代Kubernetes企业级云原生运维实战:智能重构与深度实践指南

AIGC时代Kubernetes企业级云原生运维实战:智能重构与深度实践指南

文章目录 * 一、AIGC技术栈与Kubernetes的深度融合 * 1. 智能配置生成:从YAML到自然语言 * 2. 动态资源优化:AI驱动的弹性伸缩 * 二、智能运维体系架构深度解析 * 四维能力矩阵增强实现: * 关键组件升级代码示例: * 三、企业级实战策略深度实践 * 策略1:AI辅助的渐进式交付 * 策略2:自主优化闭环实现 * 四、典型场景实战深度解析 * 场景1:突发流量应对(完整代码示例) * 场景2:混合云灾备(多云适配代码) * 五、未来演进方向代码探索 * 数字孪生示例(简化版) * 边缘智能示例 * 《Kubernetes企业级云原生运维实战(云计算前沿实战丛书)》 * 编辑推荐 * 内容简介 * 作者简介 * 目录 * 前言/序言 * 本书内容 * 本书特点 在生成式AI(AIGC)与云原生技术深度融合的今天,Kubernetes正经历着从“容器编排工具”到“智能运维大脑”的蜕变。

零基础教程:用AI头像生成器快速制作Midjourney提示词,轻松设计个性头像

零基础教程:用AI头像生成器快速制作Midjourney提示词,轻松设计个性头像 你是不是也遇到过这些情况: 想换社交平台头像,却卡在“不知道画什么”; 试过Midjourney,但输了一堆中文描述,出来的图不是脸歪就是背景糊; 看到别人发的赛博机甲风、敦煌飞天妆头像很惊艳,自己照着抄提示词,结果完全不像…… 别急——这次不用学参数、不用背英文术语、更不用翻墙查资料。 我们用一个叫AI头像生成器的工具,把“想什么”直接变成“能用的提示词”,三步搞定,连新手也能当场出图。 它不生成图片,而是专攻一件事:把你模糊的想法,翻译成AI绘图工具真正能听懂的高质量提示词。 生成的文案可直接粘贴进Midjourney、Stable Diffusion、DALL·E等主流工具,省去反复调试的90%时间。 下面这篇教程,全程零门槛:不需要Python基础,不涉及命令行,不安装任何软件,打开浏览器就能开始。 你只需要会打字、会复制粘贴,就能拥有属于自己的风格化头像提示词。 1. 为什么你需要这个工具:提示词不是“写得越长越好” 很多人以为,

DeepSeek、Kimi、笔灵谁最好用?5款网文作者亲测的AI写作神器横评

DeepSeek、Kimi、笔灵谁最好用?5款网文作者亲测的AI写作神器横评

作为在网文圈一路摸爬滚打过来的我,面对“AI写小说”这个现象,心情其实挺复杂的。 这有点像工业革命时期的纺织工人看着蒸汽机——恐惧是真的,但效率的碾压也是真的。 不是纯用AI生成,而是用AI搭建了极其高效的“外挂工作流”。 有人用它日更两万字,有人用它把废稿救活。 当然,不是纯用AI生成,而是用AI搭建了极其高效的“外挂工作流”。为了不让大家白给工具交学费,我实测了市面上十几款软件,挑出了这5款真正能嵌入小说创作流的“神器”。 1️⃣ DeepSeek:除了逻辑强,它还很懂中式网文 适合人群: 玄幻、仙侠、古言作者,以及看重文章设定和逻辑的人。 直通车:https://www.deepseek.com/ 很多人吹DeepSeek的逻辑和代码能力,但在写小说上,它有一个小众的用法是做体系。 👉 独家用法: 你可以用它来写“设定集”和“功法体系”。你可以参考图片中我的指令来和它对话: 它吐出来的东西,特有那味,既有传统网文的爽感,又有你指令里要的感觉。所以虽然它的逻辑能力也在线,但你也不要忽略了它在描写和设定生成上的亮点!

成本杀手:按需付费的LLaMA-Factory微调方案,实验成本直降90%

成本杀手:按需付费的LLaMA-Factory微调方案,实验成本直降90% 对于初创公司CTO来说,评估大模型技术路线时最头疼的莫过于实验阶段的硬件投入。动辄数万元的GPU服务器租赁费用,往往让技术验证变得举步维艰。今天我要介绍的LLaMA-Factory微调方案,配合按需付费的云算力,能将实验成本直接降低90%,真正实现"用多少算多少"的灵活付费模式。 为什么选择LLaMA-Factory进行低成本微调 LLaMA-Factory是一个专为大模型微调设计的开源框架,它整合了LoRA等高效训练技术,让开发者能用最小算力完成模型定制。相比传统全参数微调,它的核心优势在于: * 显存占用减少50-70%:通过低秩适配技术,仅微调关键参数 * 训练速度提升2-3倍:优化后的数据管道和梯度计算 * 支持主流开源模型:包括LLaMA、Qwen、ChatGLM等系列 实测在7B参数模型上,使用A100显卡进行LoRA微调,每小时成本可控制在2元以内。这类任务通常需要GPU环境,目前ZEEKLOG算力平台提供了包含该镜像的预置环境,可快速部署验证。 快速搭建微调环境 1.