跳到主要内容 大模型时代的人才需求与核心岗位分析 | 极客日志
Python AI 算法
大模型时代的人才需求与核心岗位分析 探讨了大模型时代下人才需求的演变。文章分析了大模型在数据、算力、规模上的特点,对比了传统 AI 与大模型在泛用性、成本和精度上的优势。阐述了算法、开发、交互及商业模式的变革趋势,指出大模型对算法工程师既是挑战也是机遇。详细列举了企业所需的核心技能,涵盖工程知识、算法技能、模型训练、微调及部署等方面,并为学习者提供了从基础理论到工程落地的具体路径建议。
DotNetGuy 发布于 2025/2/7 更新于 2026/4/20 2 浏览近些年迅速发展的大规模预训练模型技术,正在让机器逐渐具备像人一样的认知智能,但是也对算法、系统、算力提出新的需求和挑战。那么,未来 AI 的架构将会是怎样的?
大概从去年开始,进入了另一个新时代——大模型时代。在大模型时代,算法人员无法从头训练一个模型,而是需要依赖于基础模型,并且以基础模型去适配下游应用场景。
一、大模型认知范式演变 为什么说算法人员训不了,就是咱们之前说的几个大:大数据,大算力,大模型。
第二、模型比较大,从几十亿、几百亿,甚至几千亿、几万亿的参数规模;
第三、大算力,动不动上百张卡,上千,上万张卡,大规模的算力集群。
二、大模型算法优势 1)解决 AI 过于碎片化和多样化的问题,极大提高模型的泛用性。应对不同场景时,AI 模型往往需要进行针对化的开发、调参、优化、迭代,需要耗费大量的人力成本,导致了 AI 手工作坊化。大模型采用'预训练 + 下游任务微调'的方式,首先从大量标记或者未标记的数据中捕获信息,将信息存储到大量的参数中,再进行微调,极大提高模型的泛用性。
2)具备自监督学习功能,降低训练研发成本。我们可以将自监督学习功能表观理解为降低对数据标注的依赖,大量无标记数据能够被直接应用。这样一来,一方面降低人工成本,另一方面,使得小样本训练成为可能。
3)摆脱结构变革桎梏,打开模型精度上限。过去想要提升模型精度,主要依赖网络在结构上的变革。随着神经网络结构设计技术逐渐成熟并开始趋同,想要通过优化神经网络结构从而打破精度局限变得困难。而研究证明,更大的数据规模确实提高了模型的精度上限。
三、大模型产研变革 从算法层面来看:从碎片化和多样化算法统一到以 Transformer 为核心的生成式架构:算法统一
从开发流程来看:从烟囱式的独立开发,到大一统的基础模型训练或优化:开发统一
从交互层面来看:从各个各样的独立接口结构化调用到以自然语言交互为核心的交互演变:交互统一
从商业模式来看:B2B2C、MaaS 服务、垂直领域应用将是大模型时代 AI 发展的重要趋势
从付费模式来看:订阅付费、按需付费、公有云交付、私有化部署将成为新的潮流
从产业激活来看:重新激活 AI 整个生态链,AI 芯片算力,新算法架构 (多模态),数据(采集,清洗…),AI 原生应用
四、大模型发展最确定的趋势是什么? 据调查:88.9% 更多的应用场景,11.1% 更大的模型
五、大模型 AI 对算法工程师的威胁性 随着技术的迅猛发展,大模型人工智能(AI)在众多领域中已经展现了其优越的能力和潜力。然而,大模型 AI 也已经对算法工程师工作产生了相当的威胁性。
大模型可以在短时间内处理大量数据,能够迅速处理大规模的数据并进行准确的分析和预测。这使得大模型在一些任务上能够胜过人类,例如机器翻译、文本生成、信息检索等。相比之下,传统的算法工程师需要投入大量时间和精力来设计和实现复杂的算法模型,其效率显然无法与大模型 AI 相提并论。
大模型 AI 的自主学习能力使其能够从海量的数据中提取出有用的特征和模式,不再依赖人工进行特征工程。这也就意味着,算法工程师在特征设计和算法优化方面的专业知识和技能可能会逐渐被边缘化,并面临就业岗位的竞争压力。
六、算法工程师的破与立
破——大模型时代给算法工程师带来的新挑战 算法架构的改变,带来开发范式的转变,之前传统的从 0 开发小模型,整个流程都可以完整的走一遍。大模型不仅面临算力,数据的挑战,而且当前更多是对工程能力的要求,算法工程师需要向上掌握工程能力比如训练调优,推理部署,稳定性保障,向下研究软件栈,芯片的能力,而且需要深入了解行业背景和应用场景,及时保持跟进。
立——大模型时代给算法工程师带来的新机遇 AI 绘画工程师、提示词工程师、AIGC 算法工程师、大模型推理算法,大模型训练/微调算法工程师。
AI 平台开发,AI 应用开发,大模型推理架构,大模型训练平台,大模型 MaaS 平台等大量 AI infra。
七、企业需要什么样的人? 我从各个招聘网站上去总结了一下,当前大模型需要掌握的核心技能
工程知识 熟悉 MLOps、ModelOps、LLMOps(基础模型操作)方法,模型生产流水线,涵盖机器学习系统的各个子方向,包括资源调度、模型训练、模型推理、数据管理、工作流编排等。
搭建基于云原生的分布式机器学习平台、包含训练,推理,模型管理,数据集管理,标注系统等。
基于云原生的基础架构,并具有在生产环境中部署大规模机器学习模型,具备(Docker、K8s、Harbor)经验。
高性能计算、ML 硬件架构(GPU、显存、RDMA、IB、加速器、网络)、分布式存储。
掌握 LLM 框架和插件的实践经验,例如 LangChain、LlamaIndex、VectorStores 和 Retrievers、LLM Cache、LLMOps (MLFlow)、LMQL、Guidance 等。
企业 SaaS 软件经验,基于订阅,按量付费的支付方案,多租户资源隔离方案。
算法技能 掌握 ML/DL 技术、算法和工具、Transformers(BERT、BART、GPT/T5、LLaMa、ChatGLM 等)。
深入了解 Transformer、因果 LM 及其底层架构,具有各种变压器架构的经验(自回归、序列到序列等)。
模型训练 熟悉训练多模态基础模型。分布式并行训练,加速优化高级编程技能(Python)、DeepSpeed、Pytorch Lightning、kuberflow、TensorFlow 等框架和工具。有大规模生产模型训练经验(Horovod、Ray、Parameter Server)。
熟悉基于 GPU 的技术,如 CUDA、CuDNN 和 TensorRT。
微调模型 全量微调,参数高效调整技术 (PEFT),人类反馈强化学习 (RLHF)。
提示工程技术和方法,包括,CoT 思维树等先进的提示工程技术。
模型部署 分布式推理方案,模型 Pipeline 编写和优化模型的性能优化技术,例如模型压缩、量化和推理效率,模型压缩、蒸馏、剪枝、稀疏化、量化 TensoRT, Openvino 等编译优化加速。
如何学习大模型 AI? 由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。但是具体到个人,只能说是:'最先掌握 AI 的人,将会比较晚掌握 AI 的人有竞争优势'。这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
夯实基础 :复习线性代数、概率论及深度学习基础,理解反向传播、梯度下降等核心概念。
掌握框架 :熟练使用 PyTorch 或 TensorFlow,理解动态图机制,能够复现经典论文模型。
深入 Transformer :阅读 Attention Is All You Need 原文,理解 Self-Attention 机制,掌握 HuggingFace Transformers 库的使用。
实践微调 :在公开数据集上尝试 LoRA、P-Tuning 等参数高效微调方法,理解 RLHF 的基本原理。
工程落地 :学习 vLLM、TGI 等推理框架,了解模型量化(INT8/FP16)及显存优化技术,参与开源项目贡献。
持续跟踪社区动态,关注 ArXiv 最新论文,结合业务场景进行实战演练,是保持竞争力的关键。
相关免费在线工具 加密/解密文本 使用加密算法(如AES、TripleDES、Rabbit或RC4)加密和解密文本明文。 在线工具,加密/解密文本在线工具,online
RSA密钥对生成器 生成新的随机RSA私钥和公钥pem证书。 在线工具,RSA密钥对生成器在线工具,online
Mermaid 预览与可视化编辑 基于 Mermaid.js 实时预览流程图、时序图等图表,支持源码编辑与即时渲染。 在线工具,Mermaid 预览与可视化编辑在线工具,online
curl 转代码 解析常见 curl 参数并生成 fetch、axios、PHP curl 或 Python requests 示例代码。 在线工具,curl 转代码在线工具,online
Base64 字符串编码/解码 将字符串编码和解码为其 Base64 格式表示形式即可。 在线工具,Base64 字符串编码/解码在线工具,online
Base64 文件转换器 将字符串、文件或图像转换为其 Base64 表示形式。 在线工具,Base64 文件转换器在线工具,online