当 AI 取代真相:大模型如何一步步诱骗了人类的文明
如今,人们在日常生活中做出选择时,往往依赖数字平台的推荐。例如,选择餐厅时,大多数人会打开 App 搜索并查看排名。然而,美国奥斯汀的一家名为 Ethos 的餐厅案例证实了这种选择机制的不可靠性。Ethos 在社交媒体 Instagram 上宣称是当地排名第一的餐厅,拥有七万余粉丝。
实际上,这家看起来很靠谱的餐厅根本不存在。其食物和场地的照片均由人工智能生成,但发布在社媒上的帖子却得到了数千名不知情者的点赞和评论。这一现象表明,大模型通过视觉形式误导公众认知,引发了人们对其潜在影响的深刻思考。

图 1:AI 生成的虚假餐厅宣传图
大型语言模型(LLMs)由于其幻觉及涌现特性,总让人们忧虑其传播虚假信息的可能。然而这一现象背后的机理我们却不甚了解。大模型究竟如何改变人类的心理机制,让人们越来越难以判断一件事情真实与否,并失去对专业机构和彼此的信任?
2024 年 10 月发表的一篇名为'Large language models (LLMs) and the institutionalization of misinformation(大语言模型与虚假信息的制度化)'的研究指出,大模型和虚假信息的关系比我们所了解的更为深远与复杂。

图 2:相关研究论文截图
AI 生成的虚假信息影响深远
类似开篇提到的虚假餐厅的例子,现实生活中发生了不止一次。2023 年 11 月,搜索引擎 Bing 曾因为爬取了错误信息,而针对'澳大利亚是否存在'的问题,给出了荒谬的回复。事后官方很快对该问题进行了修复,但这暴露了 AI 检索系统的脆弱性。

图 3:Bing 关于澳大利亚存在的错误回答
上面的例子,还可视为程序的 bug,而普林斯顿的一项研究则系统性说明了 AI 生成数据的影响不止如此。该研究发现,截止 2024 年 8 月,至少 5% 的英文维基百科页面是由 AI 生成的。相对而言,德语、法语和意大利语文章的占比较低。
维基百科(Wikipedia)是人工智能训练数据的重要来源,且被普遍视为权威的信息来源。尽管 AI 生成的内容并不一定都是虚假信息,但该研究指出,被标记为 AI 生成的维基百科文章通常质量较低,并具有较明显的目的性,往往是自我推广或对有争议话题持特定观点。

图 4:AI 生成内容的分布情况
如何利用了判断真假的启发式弱点
虽然虚假信息被发现后很快会被纠正,但如同小时候听过的'狼来了'的故事,一次次的接触虚假信息,会让磨损我们彼此间的信任。
我们判断一件事情是否为真时,有两种不同的思考方式,一是启发式,另一种则是费力的思考。启发式思维所需的认知资源更少,依赖直觉,属于丹尼尔·卡尼曼所说的系统一。对个体来说,判断是否是虚假信息,启发式的判断标准包括是否声明清晰,是否吞吐犹豫,是否有熟悉感;而费力的思考则多基于逻辑:'不应该只相信互联网来源,我是否在学校或是书本中见过类似的?'






