AI 扩展定律背后的神话与真相
大语言模型(LLM)的规模扩张确实带来了能力的提升,但这是否意味着趋势会无限延续?
业界有一种流行观点认为,当前的增长趋势将持续数个数量级,甚至通向通用人工智能(AGI)。然而,这种乐观预期往往建立在若干误解之上。
缩放定律的可预测性常被误读。事实上,高质量训练数据可能已接近枯竭,模型规模的扩张正面临瓶颈。尽管无法精确预判 AI 发展的终点,但单纯依靠扩大规模恐怕难以实现 AGI。
缩放'定律'经常被误解
研究表明,随着模型参数量、计算量和数据集规模的增加,语言模型的表现确实在提升。这种规律在多个数量级上表现稳定,这也是许多人坚信领先公司会持续发布更大模型的原因。
但这其实是对缩放定律的曲解。究竟什么是'更好'?定律仅量化了困惑度(Perplexity)的降低,即模型预测下一个 token 的概率分布更准确,但这并不等同于智能或推理能力的线性飞跃。

