LLM 从任务结构到世界模型:LLMs 究竟拥有何种知识
1. 引言:系统为何需要知识
大型语言模型(Large Language Models, LLMs)如 GPT-4 等,展现了惊人的对话能力,能够生成连贯、新颖且复杂的回答。这种能力引发了学术界和工业界的深刻思考:这些模型是否真正拥有知识,还是仅仅在模仿人类语言的使用模式?
这涉及到对知识本质的哲学探讨,以及我们如何理解智能的起源。如果一个系统展示了工具性知识——即它能够成功地完成各种任务并提供大致保持真实的答案——那么这种知识与我们通常意义上的人类知识有何关联?LLMs 是否以及如何能包含类似于人类认知科学中的结构化世界模型,这些都是研究者们关心的核心问题。
此外,考虑到 LLMs 作为黑盒系统的不透明性及其产生错误信息(幻觉)的倾向,这也引发了对 AI 系统安全性和与人类价值对齐的需求的关注。因此,探索 LLMs 是否具备知识不仅是为了学术兴趣,也是为了确保未来 AI 系统的发展能够符合社会期望的标准。
2. 工具性知识的定义与局限
**工具性知识(Instrumental Knowledge)**是一种以特定能力集来定义的知识形式。这种知识不仅仅局限于形式上的语言能力,而是包括了更大范围的功能,比如从语言环境中推断出更深层次的任务结构,并根据这些结构来进行后续词汇的预测。
这一概念是为了解释像 GPT-4 这样的大型语言模型如何在多种任务中展现出令人印象深刻的性能,而不仅仅是停留在对语言规则和模式的理解上。工具性知识允许模型根据输入上下文推断任务结构,并在此基础上进行下一个词的预测。它提供了一个框架,用来探讨这些模型是如何处理任务并表现出看似理解世界的行为。
然而,工具性知识与我们通常所说的人类'常识知识'不同。常识知识通常包含了对物理世界、社会规范及因果关系的深层理解,而工具性知识更多表现为统计规律下的模式匹配与推理。尽管 LLMs 能够通过大规模互联网文本数据训练来预测下一个单词或标记,但文章探讨了这些模型如何能够通过压缩技术捕捉到一定程度的世俗内容,并且可能通过预训练阶段获取到了超越形式语言能力的知识碎片。
某些经过微调的 LLMs 在处理需要常识知识的任务时表现出色,并且预训练模型可以通过所谓的'情境学习'(In-context Learning)来执行新任务,这表明它们可能已经吸收了一些超出纯粹语言模式匹配的知识元素。但这是否等同于真正的'理解',仍需进一步验证。
3. LLM 如何获取知识与构建世界模型
大型语言模型虽然主要训练于预测下一个单词或标记的文本任务,但它们仍能获得一定的世界知识。这是因为 LLMs 在预测过程中学会了推断任务结构,并利用上下文进行理解和生成;此外,通过所谓的'情境学习',即使不更新参数,LLMs 也可以通过例子学习新任务,从而展现出超越形式语言能力的表现。
3.1 预训练中的知识压缩
LLMs 的训练过程本质上是一个高维数据的压缩过程。互联网文本包含了海量的关于现实世界的描述、事实陈述和逻辑关系。当模型试图最小化预测误差时,它被迫学习这些文本背后隐含的结构。这种学习过程使得模型内部形成了一种隐式的表示,可以被视为一种初步的世界模型。
3.2 构建安全、真实与价值对齐的 AI 系统
如果能通过 LLM 来构建显式的世界模型(World Models),则能加速构建安全、真实与价值对齐的 AI 系统。世界模型提供了比单纯的语言预测更丰富的语义空间,具体体现在以下几个方面:
- 可解释性(Interpretability):世界模型提供了结构化的、可解释的表示形式,这使得工程师或用户能够直接对系统施加控制,植入他们的'价值观'和安全措施。相比于黑盒的神经网络权重,结构化的世界模型更容易被分析和调试。
- 安全性与一致性:通过世界模型,可以更容易地使 AI 系统的行为与人类的价值观保持一致,减少意外的值变化风险,确保 AI 行为的可预测性。例如,模型可以在行动前模拟后果,判断是否符合安全准则。
- 高级接口:世界模型作为可编程的中级或高级接口,允许直接对 AI 行为进行编程,这对于确保 AI 系统的诚实性和与人类价值的一致性至关重要。它允许开发者定义状态转换规则,而非仅仅依赖概率采样。
- 资源理性:世界模型允许在系统复杂性和实际需求之间做出合理的资源分配,确保系统在执行任务时不会过度消耗资源,同时保持必要的准确性和功能性。
4. 理论探讨与未来方向
当前对于 LLM 知识的理解仍处于初级阶段。虽然模型展现了强大的工具性知识,但在缺乏显式世界模型的情况下,其推理能力往往受限于训练数据的分布。一旦遇到分布外(Out-of-Distribution)的情况,模型可能会表现出不可靠的行为。
未来的研究方向应集中在如何将隐式的语言统计规律转化为显式的因果世界模型。这需要结合符号人工智能与神经网络的优点,既保留深度学习的数据拟合能力,又引入逻辑推理的严谨性。此外,评估模型是否真正拥有知识,也需要建立新的基准测试,不仅测试其回答的正确率,还要测试其对因果关系的理解和反事实推理的能力。


