引言
随着大语言模型(LLM)能力的不断提升,智能体(Agent)在自然对话与任务规划方面的表现日益受到关注。然而,现有的 Agent 往往难以平衡即时响应与深度推理之间的矛盾。人类认知心理学中,丹尼尔·卡尼曼提出的'快思考'与'慢思考'系统为这一挑战提供了理论框架。Google DeepMind 近期提出的 Talker-Reasoner 双系统架构,正是试图将这种人类认知模式引入到 AI Agent 的设计中,以模拟人类的两种思考系统。
背景:人类的双系统思维
在《思考,快与慢》一书中,卡尼曼将人类的思维过程分为两个系统:
- 系统 1(快速思考):直觉、自动、无需努力、情绪化。例如,看到愤怒的面孔立刻识别出敌意,或回答 2+2=4。
- 系统 2(慢速思考):逻辑、计算、需专注、缓慢。例如,计算 17*24,或在复杂情境下制定计划。
在 Agent 场景中,这两个系统对应着不同的任务需求:
- 交谈回应:需要低延迟、高流畅度,类似于系统 1。
- 规划/推理:需要多步逻辑、工具调用、状态更新,类似于系统 2。
传统的单一大模型 Agent 往往难以同时兼顾这两者。若强制使用系统 2 处理所有对话,会导致响应延迟过高;若仅用系统 1 处理规划,则容易陷入幻觉或逻辑错误。
Talker-Reasoner 架构详解
Talker-Reasoner 架构将智能体拆分为两个独立但协作的组件,通过共享记忆进行交互。
1. Talker 智能体(System 1)
Talker 负责与用户进行自然语言交流。其核心特性包括:
- 快速直观:能够迅速生成对话回应,保持对话的流畅性。
- 记忆检索:从共享记忆中获取上下文信息,引导底层模型生成符合当前状态的回应。
- 持续激活:在每次用户互动时均被激活,类似于人类直觉反应的持续性。
Talker 并不直接执行复杂的规划任务,而是专注于理解用户意图并维持对话氛围。它可以在必要时等待 Reasoner 完成推理,也可以根据信念状态选择立即回应。
2. Reasoner 智能体(System 2)
Reasoner 负责执行复杂的多步推理和规划。其核心特性包括:
- 深思熟虑:调用外部工具、执行动作、更新智能体状态。
- 信念建模:形成和更新关于用户的信念状态,这些状态以结构化的语言对象形式存储在记忆中。
- 逻辑规划:处理需要长期依赖和因果推理的任务。
Reasoner 的工作流通常涉及感知环境、分析目标、制定步骤、执行操作以及评估结果。它不直接与用户进行闲聊,而是专注于解决具体问题。
3. 记忆机制
记忆是连接 Talker 和 Reasoner 的桥梁。主要功能包括:
- 信念存储:Reasoner 生成的结构化数据(如用户偏好、当前任务进度)存入记忆。
- 状态检索:Talker 在生成回应前检索最新信念,确保对话内容的一致性。
- 延迟视图:Talker 可能基于稍旧的信念状态进行操作,因为 Reasoner 的推理可能需要时间。这种设计允许 Talker 提供即时反馈,同时 Reasoner 在后台完善计划。
案例研究:睡眠辅导智能体
为了验证该架构的有效性,研究者构建了一个睡眠辅导智能体。该场景要求 Agent 具备同理心、专业知识以及多步骤规划能力。
实现细节
- Talker 配置:通过专家指导原则编码睡眠领域知识,包括表现出同理心、进行对话交流、提供准确建议等。Talker 使用强大的语言模型来理解复杂模式并提供深思熟虑的回应。
- Reasoner 配置:明确对用户的信念进行建模。通过与临床专家合作,定义了 JSON/XML 模式的信念字段,包括睡眠问题、目标、习惯、障碍和睡眠环境等。
- 协调策略:Talker 是否等待 Reasoner 取决于当前的辅导阶段。在规划阶段,Talker 会等待 Reasoner 完成;在理解阶段,Talker 可先行回应。


