【AIGC】《Generative Agents:Interactive Simulacra of Human Behavior》

【AIGC】《Generative Agents:Interactive Simulacra of Human Behavior》

让 AI 村民组成虚拟村庄会发生什么事?

文章目录

Generative Agents

Park J S, O’Brien J, Cai C J, et al. Generative agents: Interactive simulacra of human behavior[C]//Proceedings of the 36th annual acm symposium on user interface software and technology. 2023: 1-22.

这篇论文由斯坦福大学和 Google 的研究人员(如 Joon Sung Park, Percy Liang 等)共同发表,也就是大名鼎鼎的 “AI 小镇(Smallville)” 论文。鉴于你之前关注“能使用工具的 AI”,这篇文章正是“自主智能体(Autonomous Agents)”领域的开山之作。

核心贡献:提出了一个名为 “生成式智能体架构(Generative Agent Architecture)” 的系统,包含三个关键组件:

  • 记忆流 (Memory Stream):一个长期内存数据库,用自然语言记录智能体的所有经历(观察)。通过相关性、近时性、重要性三个维度进行检索,决定智能体当前该想起什么。
  • 反思 (Reflection):智能体会定期停下来,对记忆流中的碎片化信息进行归纳总结,提取出高层级的观点(例如:某人很友好,或者我下午需要去买菜),这让智能体能够形成更深刻的判断。
  • 规划 (Planning):智能体会制定长、中、短期计划,并根据环境变化(观察到新事物)随时调整计划(Re-planning),保证行为的逻辑连贯性。

点击对应的 NPC,可以看到更多细节

每个角色都有人设

最经典的案例情人节派对,至今还被反复拿出来讨论。
他们只给其中一个叫Isabella的AI下了一个种子指令——“你想在情人节办个派对”。
剩下的事情,人类完全没有插手,然后整个小镇就自发运转起来了。
Isabella开始四处发邀请函,接到邀请的AI们会根据自己的性格决定去不去,甚至有人在派对前一天就开始紧张地讨论该穿什么、要不要带点礼物。
甚至有人帮忙装饰咖啡馆,有人提前规划路线,最后5个AI准时到场,派对办得热火朝天。
整个过程虽然丝滑,却没有一条硬编码规则,全是这群电子小人自己“想”出来的。

Daily requirement 超长

NPC 觉醒,喜欢上了玩家操控的女角色,会发生什么事情呢?

行为说明应该是 ChatGPT 生成的

行为说明转成行为应该基于 program 规则

感知-思考-行动循环:

  • 感知:Agent 观察周围环境并存入记忆流。
  • 检索:根据当前场景检索最相关的记忆。
  • 行动:通过 Prompting 让 LLM 生成下一步动作(对话、移动、操作物体)。

固定的太枯燥了

可以让 Agent 根据外界的信息改变自己的行为

重要性打分,

模型内部的结构,有 plan,有 observation,还有 reflection

因为 no evidence

发现了相互暗恋的情况(Maria 和 Klaus),不排除是上帝把 reflection 塞进来了,因为没有看到 evidence

John 是 Eddy 的爸爸,John 看见 Eddy 后,改变了自己的 plan,开始与 Eddy 去对话

伊莎贝拉计划举办一场情人节派对。她传播了这个信息,在模拟结束时,12 个角色已经知道了这件事。其中 7 个人「犹豫不决」——3 个人已有其他计划,4 个人没有表露想法,这和人类的相处一样。

demo 比较慢,李老师没有看到最后,不知道 Maria 和 Klaus 的对话内容以及情人节活动现场发生的事情

自己注释了一个 happy ending,哈哈哈

实验最令人惊叹的是观察到了涌现出的社会行为 (Emergent Social Behaviors):

  • 信息传播:一个 Agent 决定举办情人节派对,消息通过社交互动在小镇里传开,大家纷纷调整计划参加。
  • 关系演变:智能体之间会建立新的友谊,并根据过去的互动改变对彼此的态度。
  • 协作:多个智能体协调时间,共同出现在同一地点。

论文证明了将 LLM 与架构化的记忆机制结合,可以创造出极具真实感的“数字人类”。

证明了 Agent 的可信度不仅取决于模型本身,更取决于其对过去经历的组织和反思能力

资讯

  1. 「斯坦福AI小镇」创业即获投1亿美元!李飞飞卡帕西都投了(2026-02-14)
    • 当初那个“智能体早期真神”,让25个智能体自己聊天、传八卦、谈恋爱的AI小镇Smallville团队也官宣创业了。
    • 公司名叫Simile,直接拿下了Index Ventures领投的1亿美元融资,连卡帕西、李飞飞也跟了。
  2. 爆火论文打造《西部世界》雏形:25个AI智能体,在虚拟小镇自由成长(2023-04-11)
    • Generative Agents 的架构中心是记忆流—— 一个全面记录智能体经验的数据库。智能体会从记忆流中检索相关记录,以规划智能体的动作行为并对环境做出适当反应,并且每次行为都会被记录以递归合成更高级别的行为指导。Generative Agents 架构中所有的内容都被记录下来并以自然语言描述的形式来进行推理,从而使智能体能够利用大型语言模型的推理功能。
    • 只有当智能体对最近事件的重要性分数总和超过某个阈值,智能体才会开始反思。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

参考

  • https://speech.ee.ntu.edu.tw/~hylee/genai/2024-spring.php
  • https://www.bilibili.com/video/BV18fXbY6Eis/?spm_id_from=333.1387.homepage.video_card.click&vd_source=8e91f8e604278558ec015e749d1a3719
  • https://www.youtube.com/watch?v=G44Lkj7XDsA
  • Demo:https://reverie.herokuapp.com/arXiv_Demo/

Read more

【AIGC文生图】通义万相2.1应用拓展与蓝耘云平台实践

【AIGC文生图】通义万相2.1应用拓展与蓝耘云平台实践

探索调参之道:通义万相2.1应用拓展与平台调优实践 近年来,随着生成模型不断迭代升级,通义万相在图像生成领域的表现愈发引人瞩目。相比于基础的文生图使用,如何在平台应用拓展和参数调优上发掘更大潜力,已成为众多开发者与工程师关注的热点。本文将从实际应用案例出发,分享一些调参心得与平台优化策略,并着重探讨蓝耘GPU平台在这方面的独特优势,力求帮助读者快速上手并走上创新之路。 一、通义万相2.1来临 前几日,通义官方发布了万相最新文生图模型2.1。 通义万相2.1在模型底层和交互体验上都有显著升级,具体来说: * 模型参数与语义理解升级 新版本参数规模已经突破千亿级别,使得对输入文本的语义捕捉更为精准,能更好地理解复杂描述,生成的图像在细节和质感上都有明显提升。与此同时,内置的智能改写功能可以自动优化用户输入,使得图像风格和表现更符合预期。 * 生成速度与细节表现的提升 得益于优化的算法和模型架构,生成速度大幅加快,尤其在高分辨率(最高支持200万像素)输出时,依然能保持流畅高效。同时,细节表现力增强后,无论是人物表情、光影效果还是场景布置,都能呈现得更加生动自

【VSCODE 插件 调试】 Visual Studio Code + Continue + Ollama实现本地版 Cursor / Copilot

【VSCODE 插件 调试】 Visual Studio Code + Continue + Ollama实现本地版 Cursor / Copilot

Visual Studio Code + Continue * 组合Visual Studio Code + Continue + Ollama 基本就是 本地版 Cursor / Copilot。,可以做到: * AI 自动写代码 * 自动改代码 * 解释代码 * 自动生成文件 * agent 自动执行命令 安装 Ollama 1. 安装 Ollama # macOS: brew install ollama # Linux: curl -fsSL https://ollama.com/install.sh | sh # windows: irm https://ollama.com/install.ps1 | iex 或者直接去官网下载安装 https://ollama.

知网AIGC检测怎么过?2026最新降AI率全流程攻略

知网AIGC检测怎么过?2026最新降AI率全流程攻略

知网AIGC检测怎么过?2026最新降AI率全流程攻略 今年答辩季最让人头疼的事,不是论文写不出来,而是写出来过不了AIGC检测。 尤其是知网。 2026年知网的AIGC检测系统又升级了,身边好几个同学的论文,之前在其他平台检测AI率只有10%出头,结果到知网一测直接飙到40%以上。搞得整个宿舍楼都弥漫着一股焦虑的气息。 我自己也经历了这个过程,最后顺利过了检测。今天把整个流程整理出来,从理解检测原理到实际操作步骤,争取让你看完就知道该怎么做。 先搞懂:知网AIGC检测到底在查什么 很多人一听"AI检测"就慌,但其实搞明白它的检测逻辑之后,你会发现它并没有那么神秘。 知网的AIGC检测大致是从这几个维度来判断的: 语言模型的困惑度。 简单说就是,一段文字如果太"通顺"了,AI检测系统反而会觉得可疑。因为AI生成的文字有一个特点——它总是选择概率最高的下一个词。这就导致AI写的内容在语言模型看来"毫不意外",困惑度很低。而人写的东西偶尔会蹦出一些意想不到的表达,困惑度相对高一些。 文本的统计特征。 包括词汇丰富度、句子长度分布、段落结构等。AI生成的文字在这些统计指标

Qwen2.5-72B-GPTQ-Int4实战教程:vLLM批量推理+Chainlit结果可视化集成

Qwen2.5-72B-GPTQ-Int4实战教程:vLLM批量推理+Chainlit结果可视化集成 1. 开篇:从部署到交互,一站式搞定大模型应用 如果你手头有一个像Qwen2.5-72B这样强大的大语言模型,但还在为如何高效部署和便捷使用而发愁,那么你来对地方了。今天,我们不谈复杂的理论,只讲最实用的操作。我将带你一步步,把一个经过GPTQ-Int4量化、拥有720亿参数的“巨无霸”模型,变成一个随时可以调用、还能通过漂亮界面交互的智能助手。 这个方案的核心是vLLM和Chainlit。vLLM负责在后台高效、稳定地运行模型,处理你的批量请求;Chainlit则在前端为你提供一个类似ChatGPT的聊天界面,让你可以直观地与模型对话,并实时看到生成结果。整个过程,你不需要写复杂的网络代码,也不需要操心并发处理,跟着教程走,就能快速搭建起一套属于自己的大模型应用系统。 2. 认识我们的主角:Qwen2.5-72B-Instruct-GPTQ-Int4 在动手之前,我们先花几分钟了解一下即将部署的模型。这能帮你更好地理解后续的配置和可能遇到的问题。 2.1 模型简介:一