引言
了解 AI 的发展历程,有助于理解现在的 AI 是如何走到今天的,也能帮助我们预测未来可能的发展方向。专家指出,如果不了解符号主义 AI 的兴衰,就无法理解为什么深度学习会成功,也无法预见它可能面临的挑战。

人工智能的诞生:一个充满想象力的开始
1956 年的达特茅斯会议被公认为人工智能学科的诞生标志。一群来自不同领域的顶尖科学家聚集在一起,讨论着一个看似疯狂的问题:"机器能思考吗?"他们相信,只要给机器输入足够多的规则和知识,机器就能像人一样思考。
这种乐观情绪在当时是可以理解的。毕竟,计算机刚刚诞生不久,人们对其能力充满了无限的想象。但是,现实往往比想象复杂得多。这些科学家很快就发现,让机器像人一样思考,远比他们想象的要困难得多。
第一次 AI 寒冬:理想与现实的巨大落差
20 世纪 70 年代,AI 迎来了第一次寒冬。这个时期,人们开始意识到,仅仅通过编写规则来模拟人类智能是远远不够的。
例如,当时有个研究团队试图开发一个能自动翻译俄文到英文的系统。他们编写了几千条语法规则,但结果却不尽如人意。比如,系统把 "The spirit is willing, but the flesh is weak"(心有余而力不足)翻译成了 "The vodka is good, but the meat is rotten"(伏特加很好,但肉腐烂了)。
这个例子说明了基于规则的系统的局限性:它们无法理解语言的真正含义,只能进行表面的符号转换。
更重要的是,这些系统的开发成本极高。据说,当时开发一个专家系统可能需要几十个人年(一个人工作一年的工作量)的投入,但系统的知识库仍然非常有限,无法处理规则之外的新情况。
专家系统的兴起与衰落:知识工程的黄金时代
尽管面临挑战,但 AI 研究并没有停止。20 世纪 80 年代,专家系统成为了 AI 的主流方向。
专家系统的核心思想是:把专家的知识编码成规则,让计算机能够像专家一样进行推理和决策。这在当时是一个巨大的进步,因为人们开始意识到,与其让计算机像人一样思考,不如让计算机在特定领域表现出专家级的水平。
MYCIN 系统是一个很好的例子。这是一个用于诊断血液感染的专家系统,它的诊断准确率在某些情况下甚至超过了人类医生。系统包含了大约 600 条规则,能够根据患者的症状、实验室检查结果等信息,给出诊断建议和治疗方案。
但是,专家系统也面临着严重的局限性。首先,知识获取是一个巨大的瓶颈。要从专家那里提取知识并转化为规则,需要大量的时间和精力。而且,专家往往难以清晰地表达他们的直觉和经验。
其次,专家系统缺乏常识推理能力。它们只能在非常狭窄的领域中工作,一旦遇到规则之外的情况,就会束手无策。
最后,专家系统的维护成本极高。随着知识的更新和扩展,需要不断地添加和修改规则,这使得系统变得越来越复杂和难以管理。
机器学习的崛起:让数据说话
20 世纪 90 年代,AI 研究的方向发生了重大转变。人们开始意识到,与其试图教会计算机所有的知识,不如让计算机自己从数据中学习。
这种思想的核心是:给计算机提供大量的例子,让它自己发现其中的规律。比如,我们不再告诉计算机猫长什么样,而是给它看成千上万张猫的图片,让它自己总结出猫的特征。
这种方法的优势是显而易见的:
- 不需要人工编写复杂的规则
- 可以从大量数据中发现人可能忽略的模式
- 可以随着数据的增加不断改进
早期机器学习应用如垃圾邮件分类器,只需要提供几千封已经标记为 "垃圾邮件" 或 "正常邮件" 的邮件,算法就能自动学习识别垃圾邮件的模式,准确率能达到 95% 以上。
但是,早期的机器学习也有其局限性。特别是特征工程,即选择哪些特征来训练模型,仍然需要大量的人工干预。比如,在图像识别任务中,我们仍然需要人工设计特征提取的方法。
深度学习的革命:从特征工程到端到端学习
21 世纪初,特别是 2010 年以后,AI 迎来了真正的革命性突破——深度学习的兴起。
深度学习的核心思想是:不仅可以让机器从数据中学习,还可以让机器自己发现应该学习什么特征。这就像是给机器提供了原材料,让它自己决定如何加工和组合这些材料。
以图像识别为例,传统的机器学习需要人工设计特征提取的方法,比如告诉算法应该关注边缘、角点、纹理等特征。而深度学习则完全不同,我们只需要给算法提供大量的图片和对应的标签(如 "猫"、"狗"),算法就能自动学习从简单到复杂的特征层次。
第一层可能学习到边缘和颜色,第二层学习到简单的形状,第三层学习到眼睛、耳朵等部件,最后一层将这些部件组合起来识别出完整的物体。


