2025 大模型学习路线与核心资源指南
梳理了 2025 年大模型学习路线,涵盖从基础 Transformer 原理到应用开发的全流程。内容包含主流模型架构分析、提示工程、微调技术(SFT/PEFT/RLHF)、推理加速及部署方案。适合希望深入理解大模型底层机制并具备实战能力的开发者参考。

梳理了 2025 年大模型学习路线,涵盖从基础 Transformer 原理到应用开发的全流程。内容包含主流模型架构分析、提示工程、微调技术(SFT/PEFT/RLHF)、推理加速及部署方案。适合希望深入理解大模型底层机制并具备实战能力的开发者参考。

建议先从主流的 Llama 开始,然后选用中文的 Qwen/Baichuan/ChatGLM。先快速上手体验 Prompt 工程,然后再学习其架构,跑微调脚本。
如果要深入学习,建议再按以下步骤,从更基础的 GPT 和 BERT 学起,因为底层是相通的。而且实际落地到一个系统中,应该也是大模型结合小模型(大模型在做判别性的任务上,比 BERT 优势不是特别大)。
可以参考如下方案,按需学习。
按个人偏好总结了学习目标与路径,后续将陆续整理相应学习资料,并输出学习笔记。
学习思路:快速应用 Transformer 等轮子来微调和使用 LLM,同时深入学习 NLP 预训练模型原理和推理部署(因为偏底层的东西变化不大)。
应用:
1、Zero Shot / Few Shot 快速开箱即用
2、领域数据 - 指令微调 LLM
参数高效的微调,适合用于纠正模型输出格式(PEFT 上限不高,并向 LLM 输入的知识有限)。
3、对齐
专注基于强化学习的大语言模型对齐,有前景的方向是 SuperhumanAI AutoALign。
4、预训练
5、训练推理优化
1.1 技术分析
1.2 市场需求分析
2.1 ChatGPT 的工作原理
2.2 算法细节
3.1 Transformer
3.2 GPT
3.3 BERT
3.4 T5 系列
3.5 UniLM
4.1 提示学习 PromptLearning
4.2 上下文学习 ContextLearning
4.3 指令数据构建
5.1 Mistral
5.2 Llama
5.3 ChatGLM
6.1 全量指令微调 SFT
6.2 高效微调 PEFT
LORA 系列
其他
实战
7.1 预训练模型中的分词器
7.2 分布式训练
7.3 MOE 混合专家模型
8.1 推理规划
8.2 综合应用框架
8.3 智能代理 AI Agent
9.1 注意力优化
9.2 CPU 推理加速
9.3 推理优化框架
9.4 训练加速
10.1 强化学习概述
10.2 强化学习环境
10.3 强化学习算法
11.1 近端策略优化算法 PPO
11.2 基于人类反馈的强化学习 RLHF
12.1 任务设计
12.2 数据准备
13.1 数据来源
13.2 数据处理
13.3 数据影响分析
13.4 开源数据集合
14.1 模型评估概述
14.2 大语言模型评估体系
14.3 大语言模型评估方法
14.4 大语言模型评估实践
16.1 落地调研
模型最终还需落地解决实际问题,创造价值:优化现有问题、满足、甚至创造用户需求。 总的来说,就是规模化、自动化人的工作,替代人工,批量化、大规模生成或提供服务。
16.2 应用分析
在企业里面做 7B、13B 量级的微调,主要就是在搞数据、样本,技术壁垒不高。预训练壁垒高,因为需要烧钱堆经验。
在这个日新月异的时代,如何紧跟行业主流发展,并具备不可替代性是个难题:
尽量往底层和工程化上靠,学习相对不变的技术(理论上变化很难),迁移到稳定或有前景的行业,不断提升自己的学习效率:

微信公众号「极客日志」,在微信中扫描左侧二维码关注。展示文案:极客日志 zeeklog
使用加密算法(如AES、TripleDES、Rabbit或RC4)加密和解密文本明文。 在线工具,加密/解密文本在线工具,online
生成新的随机RSA私钥和公钥pem证书。 在线工具,RSA密钥对生成器在线工具,online
基于 Mermaid.js 实时预览流程图、时序图等图表,支持源码编辑与即时渲染。 在线工具,Mermaid 预览与可视化编辑在线工具,online
解析常见 curl 参数并生成 fetch、axios、PHP curl 或 Python requests 示例代码。 在线工具,curl 转代码在线工具,online
将字符串编码和解码为其 Base64 格式表示形式即可。 在线工具,Base64 字符串编码/解码在线工具,online
将字符串、文件或图像转换为其 Base64 表示形式。 在线工具,Base64 文件转换器在线工具,online