人工智能社区正在逐渐拥抱 S 型曲线——在经历了最初的快速增长之后,随着遇到自然限制,进展开始趋于平缓。
如果你最近一直在关注人工智能领域,可能已经注意到了一种转变。一年前的无拘无束的乐观情绪已经让位于更加沉稳、现实的展望。作为一名长期沉浸在人工智能代码中并为相关开源项目做出贡献的技术人员,我亲眼目睹了这种转变。
本文分析了大语言模型(LLM)的发展现状,指出人工智能正从指数级增长预期转向 S 型曲线发展模式。文章探讨了制约发展的三重因素:数据可用性、能源基础设施成本及经济可行性。针对人工智能信任危机,讨论了 LLM 作为概率模型的幻觉问题及其对业务流程自动化的影响。结合 Gartner 技术成熟度曲线,说明生成式 AI 正进入幻灭低谷期,这是技术成熟的必经阶段。未来趋势将聚焦于从单纯追求规模转向效率优化、垂直领域应用及 RAG 等务实技术路径,强调 AI 应作为提升生产力的工具而非替代方案。

人工智能社区正在逐渐拥抱 S 型曲线——在经历了最初的快速增长之后,随着遇到自然限制,进展开始趋于平缓。
如果你最近一直在关注人工智能领域,可能已经注意到了一种转变。一年前的无拘无束的乐观情绪已经让位于更加沉稳、现实的展望。作为一名长期沉浸在人工智能代码中并为相关开源项目做出贡献的技术人员,我亲眼目睹了这种转变。
还记得我们曾经认为人工智能增长呈指数级增长,准备将我们所有人抛在身后吗?现实情况并非如此。人工智能社区现在正在采用一种不同的模型:S 形曲线。这种 S 形曲线表明,在最初的快速增长阶段之后,随着我们遇到自然限制,进展开始趋于平缓。
为什么视角会发生转变?这归结于我们在大模型开发中面临的物理和逻辑限制。
首先是数据可用性。互联网虽然庞大,但高质量数据的数量仍然有限。像 OpenAI 这样的公司正在争先恐后地达成协议,以获取更多数据来训练下一代模型,但当我们需要后续版本 10 倍的数据时会发生什么?合成数据将有助于弥补一些差距,但这很难解决,且存在质量衰减风险。
然后是能源和基础设施成本。大模型需要惊人的计算能力。我们谈论的是一排排的 GPU 不断运行,产生的热量足以温暖一个小镇。这不仅昂贵,而且正在达到收益递减的临界点。在某些情况下,资源可用性限制了甚至可能实现的目标。例如,某些大型数据中心每天需要惊人的水量和电力。主流云厂商和硬件供应商正在寻求消除对传统 GPU 的过度依赖,但这还处于早期阶段。
最后,还有经济可行性的问题。目前,大型前沿模型正在由财力雄厚的云提供商补贴。但随着 LLM 的真实成本变得明朗,我们可能会看到这些商业模式的转变。训练一个前沿模型是一个极其昂贵的过程,涉及巨大的算力投入和维护成本。
如果这些限制还不够,我们还面临着所谓的'信任危机'。这是 AI 工程师大会上的一个热门话题。问题是什么?从设计上来说,LLM 往往会变得……有创意。这对于创作下一部伟大的小说来说很棒,但对于自动化关键业务流程来说却不行。这种脱节是关于人工智能的幻想思维,以及对实施缺乏了解。
LLM 是一个概率模型;在某些情况下,它们会迷路。我亲眼目睹了一些客户的做法:试图通过将大量数据输入 LLM 来替换分析流程,或者更糟糕的是,试图通过让 LLM 无监督地工作来替换整个工作类别。当然,这些想法都没有成功,让发起者感到沮丧,并对新 AI 的能力持负面看法。
即使是内部人士也意识到,Transformer 架构虽然在特定任务上表现优异,但我们正在所有模型中都达到某种级别的性能瓶颈。我们距离可信的自动化或通用人工智能(AGI)只有一到两次突破。这意味着我们需要更务实的预期管理。
如果你想知道我们在 AI 过山车的哪个位置,那就看看 Gartner hype cycle。这个可靠的工具为我们提供了技术成熟度和采用率的直观表示。基础模型和生成式 AI 正在进入'幻灭的低谷'。不要被这个名字所迷惑——这不是一件坏事。这是任何技术成熟的必要步骤。
早期采用者让每个人都兴奋起来,而高级用户发现了许多早期的好处。后期采用者开始比较更成熟的技术,并发现尖锐的边缘,宣称它'全是炒作'。最终,会有诸如支持合同、架构图以及大量产品之类的东西,使这一切变得更加可靠和安全。啊,启蒙的曙光。
现在,在你开始认为一切都黯淡无光之前,请让我向你保证,这个 S 型曲线和'幻灭的低谷'有一些重大的好处。如果你准备相信这个过程,这里有一些让你感到高兴的事情。
那么,这让我们处于什么位置?如果我们看看 Gartner hype cycle,我们会发现,虽然基础模型和 GenAI 正在进入低谷,但其他 AI 技术处于不同的阶段。例如,知识图谱终于从低谷中走了出来,这可能是由于它们在 AI 应用中的有用性而推动的。
关键的要点是什么?AI 不会消失,但它正在进入一个更加衡量、现实的进步阶段。我们正在从'哇'阶段过渡到'如何'阶段:我们如何真正地实施这些技术,以增加真正的价值?在我吸收了我们当前状态之后,我的建议是:放松身心,适应我们今天拥有的东西。如果你正在构建一个聊天机器人,你应该以某种方式提高用户的生产力。否则,你只是在进行更多 AI 研究。
当我们沿着这个 S 型曲线前进时,我们可以期待什么?我相信我们将迎来一个整合和改进的时期。模型之间的差距正在缩小,许多模型的质量都达到了 GPT-4 级。这对高级用户来说是个好消息,他们现在可以建立在更稳定的基础之上。
我们也可能看到向更专注、更高效的模型转变。'更大总是更好'的时代即将结束,取而代之的是一种更细致入微的方法,它平衡了能力和效率。虽然模型参数量仍在增长,但稀疏化技术和 MoE(混合专家)架构正在优化资源利用。
虽然我们可能没有以惊人的速度朝着 AGI 迈进,但我们正在进入一个可能更加令人兴奋的阶段。这是一个实用创新的时代,人工智能对现实世界的影响将开始变得清晰。所以,各位人工智能爱好者,系好安全带。旅程可能比预期更平稳,但远未结束。
在深入探讨 S 型曲线时,必须提及 Scaling Laws(缩放定律)。过去几年,我们发现模型性能随参数规模、数据集大小和计算量的增加而遵循幂律关系。然而,这种关系并非无限线性。随着模型变大,边际效益递减开始显现。为了维持性能提升,所需的计算量呈指数级增长,这直接导致了能源成本的飙升。
此外,推理阶段的能耗往往被低估。训练一次模型的成本固然高昂,但在实际部署中,数以亿计的用户调用意味着推理总能耗远超训练能耗。因此,未来的技术重点将从单纯的扩大规模转向模型压缩、量化以及边缘计算部署。例如,INT8 或 INT4 量化技术可以在几乎不损失精度的情况下显著降低显存占用和计算延迟,这对于大规模商业化落地至关重要。
数据质量的瓶颈日益凸显。互联网公开文本的枯竭迫使研究者转向合成数据(Synthetic Data)。利用现有大模型生成高质量的训练数据,再用于微调下一代模型,形成自我进化的循环。然而,这带来了'模型崩溃'(Model Collapse)的风险,即模型在迭代过程中逐渐遗忘真实世界的分布,导致输出同质化。因此,人类反馈强化学习(RLHF)和人工审核机制依然是确保数据多样性和准确性的关键防线。
在 B 端应用中,企业不再盲目追求通用大模型,而是倾向于垂直领域的专用模型。通过 RAG(检索增强生成)技术,将私有知识库与大模型结合,既解决了幻觉问题,又保护了数据隐私。这种'小模型 + 大上下文'的模式正在成为企业级 AI 的主流架构。同时,Agent(智能体)框架的发展使得 AI 能够自主执行多步骤任务,从简单的问答走向复杂的操作执行,这标志着 AI 从内容生成工具向生产力工具的实质性跨越。

微信公众号「极客日志」,在微信中扫描左侧二维码关注。展示文案:极客日志 zeeklog
使用加密算法(如AES、TripleDES、Rabbit或RC4)加密和解密文本明文。 在线工具,加密/解密文本在线工具,online
生成新的随机RSA私钥和公钥pem证书。 在线工具,RSA密钥对生成器在线工具,online
基于 Mermaid.js 实时预览流程图、时序图等图表,支持源码编辑与即时渲染。 在线工具,Mermaid 预览与可视化编辑在线工具,online
解析常见 curl 参数并生成 fetch、axios、PHP curl 或 Python requests 示例代码。 在线工具,curl 转代码在线工具,online
将字符串编码和解码为其 Base64 格式表示形式即可。 在线工具,Base64 字符串编码/解码在线工具,online
将字符串、文件或图像转换为其 Base64 表示形式。 在线工具,Base64 文件转换器在线工具,online