2025 年 AI 大模型发展趋势与企业应用展望
在 2022 年底,ChatGPT 的发布点燃了一场人工智能革命,这场革命自那时以来以惊人的速度加速发展。从对通用人工智能(AGI)即将来临的猜测,到开源模型与闭源模型的激烈竞争,以及大型科技公司将其 AI 聊天机器人整合到整个应用程序生态系统中,人工智能领域充满了戏剧性和惊人的进步。
本文将回顾 2023 年和 2024 年人工智能取得的巨大进展,并预测这一生态系统在 2025 年如何演变,特别关注企业领域。该领域的发展速度如此之快,以至于创始人和企业领导者都需要预测未来的发展方向,并朝着这个方向前进。如果一个模型现在能以 40% 的时间完成一项任务,那么在一年或两年内,它完成这项任务的成功率很可能将达到 80-90%。最敏锐的构建者将为模型即将具备的能力设计解决方案,而不是局限于今天所能实现的。
2023 年:训练和性能提升的一年
2023 年是人工智能的里程碑式一年,进步的速度和规模比以往任何时候都要快。这一年发布了大量新的基础模型,是 2022 年的两倍多。训练的不断进步速度反映在 GitHub 上与人工智能相关的项目数量几乎增长了 60%,与这些项目的互动年度增长了三倍,超过 1200 万。
Transformer 架构是这一创新爆炸的推动力。随着研究人员向这些模型输入越来越多的数据和计算资源,它们继续得到改进,证实了 Transformer 模型具有类似于半导体领域摩尔定律的'扩展法则'。基于 Transformer 的模型开始在像 MMLU 这样的黄金标准基准测试中饱和,迫使研究人员开发新的、更具挑战性的测试以跟上进度。
与此同时,多模态模型在语言、视觉、语音和机器人技术等领域解锁了新的用例。自 2022 年 11 月以来,我们从能够处理 4096 个 token 文本的早期版本跃升到能够处理文本、图像、音频和视频的百万级 token 模型。研究团队报告说,其在下一个 token 预测和回忆方面的能力在至少 1000 万个标记上不断增加,暗示了这些模型中尚未开发的巨大潜力。
这些发展共同导致了人工智能竞争格局的转变。OpenAI 在年初处于主导地位,GPT-4 舒适地领先于模型排行榜,并在企业尝试生成式人工智能的市场份额中占据主导地位。但到了年中,GPT-3.5 级别的性能已成为基线。Anthropic 的 Claude 3 Opus 现在在多个关键基准上超过了 GPT-4,从狭窄的(在五次射击的 MMLU 试验中表现优异)到显著的(在关键编码基准上大幅领先)。
很快,许多模型将很快达到或超过 GPT-4 设定的标准,包括开源新秀 Llama 3。在 LMSys 领先排行榜中筛选英语提示时,Llama 3 70B 占据了第二位,仅次于 GPT-4 的最新版本。一些 AI 构建者暗示,这两个模型之间的差距实际上几乎不存在。甚至有传言说,仍在训练中的更大参数量的模型将与备受期待的下一代旗舰模型表现相当。
开源人工智能的崛起无疑是 2023 年最令人兴奋的发展。尽管 OpenAI 一度看似不可战胜,但像 Llama 3、Databricks 的 DBRX 和 Mistral 这样的替代品在参数数量和计算成本更低的情况下取得了卓越的成果。随着开源和闭源模型性能的收敛,企业和应用程序开发者都将从中受益匪浅。
这一快速民主化的人工智能发展背景是企业采用和投资的日益增长。随着生成式 AI 试点开始证明其实用价值,企业的预算和用例都在飙升。近期的一项调查发现,2023 年企业平均在生成式 AI 上投资了 700 万美元,几乎所有受访者都报告了有希望的初步结果。大多数人计划在 2024 年将其生成式 AI 投资增加 2-5 倍。麦肯锡估计,仅生成式 AI 就可能在 2024 年将高科技行业的收入提高多达 9%,或近 5000 亿美元。重要的是,这些举措正在从实验性的'创新'预算转变为核心软件支出。
2024 年:推理的兴起
随着我们进入 2024 年,企业人工智能的焦点从训练转向推理——即将生成式模型用于现实世界应用程序的过程。这一转变体现在像英伟达和微软这样的科技巨头的季度财报中。英伟达的首席财务官透露,2023 年其数据中心收入的 40% 来自 AI 推理——这一数字预计在未来一年将显著上升。
与训练相比,推理提出了独特的挑战,需要公司在大规模部署生成式 AI 应用程序时权衡一组新的考虑因素。这些包括:
- 延迟:在运行推理时,低延迟和高吞吐量至关重要,因为应用程序必须快速响应用户请求。训练可以花费更长时间,因为它通常离线进行。
- 扩展:生产工作负载可能高度可变,需要能够动态适应波动需求的基础设施。虽然训练也受益于可扩展性,但其资源需求通常更可预测。
- 多种环境:推理工作负载需要能够在各种环境中运行,从云平台到边缘设备,每种环境都有其自己的约束和考虑因素。训练通常在更集中和标准化的环境中进行。
- 成本:尽管训练生成式模型的成本已经令人震惊,但与大规模推理的持续成本相比,这些成本相形见绌。据报道,运行 ChatGPT 进行推理的每周成本超过了训练模型的全部成本。训练成本通常更可预测和易于管理,通常涉及一次性或定期投资。
根据这些因素,企业正在细化其 AI 策略,越来越多地依赖多个模型,即使是同一功能也是如此。新兴的最佳实践是通过启用模型之间的轻松切换(通常只需简单的 API 更改)来设计 AI 应用程序,以实现最大选项性。这种'模型花园'方法允许企业根据性能 - 成本权衡为特定用例量身定制解决方案,避免供应商锁定(这是云计算时代痛苦的教训),并利用该领域继续前进的进展。
尽管使用多个模型有其优势,但大多数企业在模型部署和优化的复杂性导航中面临着艰巨的挑战。根据行业分析,2023 年企业 AI 支出的最大领域之一,甚至是最大的领域,是实施。这突出了简化 AI 模型在生产中部署和优化过程的解决方案的迫切需求。


