人工智能通史(上卷)
前言:思想的机械化
人工智能(Artificial Intelligence, AI)并非凭空诞生于20世纪。它是人类长久以来试图理解自身心智、并将思维过程机械化的哲学与科学探索的延续。早在17世纪,托马斯·霍布斯(Thomas Hobbes)在《利维坦》中就提出了“推理即计算”(Reasoning is but reckoning)的惊人观点,暗示了思维过程可以被分解为一系列的算术操作。随后,莱布尼茨(Gottfried Wilhelm Leibniz)构想了“通用文字”(Characteristica Universalis)和“推理计算器”(Calculus Ratiocinator),梦想着有一天,哲学家之间的争论可以通过“让我们算一算”(Calculemus!)来解决。
然而,直到20世纪中叶,随着电子计算机的发明,这些哲学构想才具备了物理载体。阿兰·图灵(Alan Turing)在1936年提出的图灵机模型,从理论上证明了通用计算的可行性;而沃伦·麦卡洛克(Warren McCulloch)和沃尔特·皮茨(Walter Pitts)在1943年提出的神经元数学模型,则为模拟大脑的生物结构奠定了基础。这两条路线——符号主义(Symbolism)与联结主义(Connectionism)——在随后的七十年里交织缠绕,共同谱写了AI的发展史。
第一章:创世纪 (1943-1956)
这一时期是AI的孕育期。来自数学、心理学、工程学和经济学的学者们开始跨界交流,试图寻找“思维机器”的可能性。
1.1 神经元的数学化 (1943)
1943年,神经生理学家麦卡洛克和数学天才皮茨发表了论文《神经活动中内在思想的逻辑演算》(A Logical Calculus of the Ideas Immanent in Nervous Activity)[1]。他们提出了一种极其简化的神经元模型(M-P神经元),证明了这种简单的二值元件网络可以计算任何逻辑函数(如AND, OR, NOT)。
技术细节:M-P 神经元模型
1.2 图灵的预言 (1950)
1950年,阿兰·图灵在《Mind》期刊上发表了被誉为AI“独立宣言”的论文——《计算机器与智能》(Computing Machinery and Intelligence)[2]。面对“机器能思考吗?”这个充满哲学陷阱的问题,图灵天才地将其转化为一个可操作的行为测试——模仿游戏(The Imitation Game),即后世熟知的“图灵测试”。
"I believe that in about fifty years' time it will be possible to programme computers... to make them play the imitation game so well that an average interrogator will not have more than 70 per cent chance of making the right identification after five minutes of questioning."
—— Alan Turing, 1950
图灵不仅提出了测试标准,还在这篇论文中预见性地反驳了九种反对意见(如神学异议、数学异议、意识异议),并提出了“儿童机器”(Child Machine)的概念,即与其制造一个模拟成人大脑的复杂机器,不如制造一个模拟儿童大脑的简单机器,然后通过教育(机器学习)让它进化。
1.3 达特茅斯会议:AI的诞生 (1956)
1955年,年轻的达特茅斯学院数学助理教授约翰·麦卡锡(John McCarthy)决定组织一次研讨会,旨在“厘清人工智能这一学科”。他联合了哈佛的马文·明斯基(Marvin Minsky)、IBM的纳撒尼尔·罗切斯特(Nathaniel Rochester)和贝尔实验室的克劳德·香农(Claude Shannon),向洛克菲勒基金会申请了13,500美元的资助。
1956年夏天,这场为期两个月的研讨会在达特茅斯学院举行。虽然只有约20人参加,且大部分时间是松散的研讨,但这次会议确立了“人工智能”(Artificial Intelligence)这一术语,并确定了该领域的核心任务:让机器使用语言、形成抽象和概念、解决目前只有人类能解决的问题、并自我提升[3]。
参会者包括了后来被称为“AI之父”的几乎所有人:麦卡锡、明斯基、纽厄尔(Allen Newell)、西蒙(Herbert Simon)。纽厄尔和西蒙在会议上展示了“逻辑理论家”(Logic Theorist),这是第一个能够自动证明数学定理的程序,它甚至发现了一个比《数学原理》原书中更优雅的证明步骤,令罗素(Bertrand Russell)本人都感到惊讶。
第二章:黄金时代与第一次寒冬 (1956-1974)
达特茅斯会议后的二十年被称为AI的“黄金时代”。研究者们乐观地认为,通用人工智能指日可待。资金源源不断地涌入,主要来自DARPA(美国国防高级研究计划局)。
2.1 推理与搜索:通用问题求解器 (GPS)
纽厄尔和西蒙试图模仿人类解决问题的思维过程,开发了通用问题求解器(General Problem Solver, GPS)。GPS的核心思想是手段-目的分析(Means-Ends Analysis):将大目标分解为子目标,不断寻找缩小当前状态与目标状态差异的操作算子。
虽然GPS在解决汉诺塔、传教士与野人等逻辑谜题上表现出色,但它遭遇了“组合爆炸”(Combinatorial Explosion)问题。当问题规模稍大,或者涉及现实世界的复杂性时,搜索空间呈指数级增长,导致计算无法完成。
2.2 语言与微世界:Lisp 与 SHRDLU
1958年,麦卡锡发明了Lisp(List Processing)语言。作为第二古老的高级编程语言(仅次于Fortran),Lisp成为了AI领域的通用语。它支持递归、符号处理和动态内存管理,极大地促进了AI程序的开发。
1968年,特里·威诺格拉德(Terry Winograd)在MIT开发了SHRDLU系统。这是一个运行在“微世界”(Micro-world)中的自然语言理解程序。用户可以用英语指挥机械臂在一个包含积木的虚拟世界中移动物体。
SHRDLU的成功给人一种错觉,似乎机器理解语言的问题已经解决。但实际上,SHRDLU完全依赖于微世界的简单物理规则和有限词汇,它并不真正“理解”积木是什么,只是在操作符号。
2.3 联结主义的挫折:感知机之死
在符号主义高歌猛进的同时,联结主义也在发展。1958年,弗兰克·罗森布拉特(Frank Rosenblatt)提出了感知机(Perceptron),这是一种单层神经网络,能够通过训练学习识别简单的形状。罗森布拉特乐观地预言:“感知机将成为能够感知、识别、记忆和学习的胚胎。”
然而,1969年,明斯基和派珀特(Seymour Papert)出版了《感知机》(Perceptrons)一书。他们在书中从数学上严谨地证明了:单层感知机甚至无法解决简单的异或(XOR)问题(即线性不可分问题)。虽然多层网络可以解决这个问题,但当时缺乏有效的训练算法(反向传播尚未普及)。这本书给联结主义判了死刑,导致神经网络的研究停滞了近20年。
2.4 第一次AI寒冬 (1974-1980)
到了70年代初,AI承诺的“通用翻译”、“自动驾驶”等宏伟目标无一实现。机器翻译闹出了“The spirit is willing but the flesh is weak”(心有余而力不足)被翻译成“伏特加是好的,但肉烂了”的笑话。
1973年,英国科学研究委员会委托詹姆斯·莱特希尔(James Lighthill)爵士评估AI研究状况。莱特希尔报告(Lighthill Report)做出了毁灭性的结论:“迄今为止,该领域的任何发现都没有产生当初承诺的重大影响。”报告指出,AI在解决玩具问题(Toy Problems)上的成功无法扩展到现实世界,因为“组合爆炸”无法克服。
随即,英国政府削减了除两所大学外所有AI研究的资金。美国DARPA也因越战压力和对AI失望,大幅削减了基础研究资助。第一次AI寒冬降临。
第三章:知识工程与专家系统 (1980-1987)
80年代,AI通过改变策略迎来了复兴。研究者不再追求通用的“思维机器”,转而开发专注于特定领域的专家系统(Expert Systems)。这一范式的核心理念是:智能不仅来源于推理机制,更来源于知识(Knowledge is Power)。
3.1 专家系统的崛起
爱德华·费根鲍姆(Edward Feigenbaum)提出了“知识工程”的概念。典型的专家系统由两部分组成:知识库(Knowledge Base)(存储专家知识的规则集)和推理机(Inference Engine)(根据规则进行逻辑推导)。
- R1/XCON:由卡内基梅隆大学为DEC公司开发,用于配置VAX计算机系统。它包含约2500条规则,每年为DEC节省4000万美元,是第一个商业上成功的AI系统。
- MYCIN:斯坦福大学开发,用于诊断血液感染并推荐抗生素。其诊断准确率(69%)甚至超过了初级医生,但因法律和伦理问题未投入临床使用。
3.2 第五代计算机计划
1982年,日本通产省(MITI)宣布启动雄心勃勃的“第五代计算机系统”(FGCS)计划,旨在开发能够进行自然语言对话、翻译和推理的超级计算机,并将其作为国家战略。这一计划震惊了西方,引发了美国(MCC计划)和欧洲(Alvey计划)的恐慌性跟进,导致大量资金回流AI领域。
3.3 第二次AI寒冬 (1987-1993)
然而,繁荣背后危机四伏。专家系统面临三大瓶颈:
- 知识获取瓶颈:让专家将其隐性知识显性化并编码成规则极其困难且昂贵。
- 脆性(Brittleness):系统缺乏常识,一旦遇到规则边界之外的情况,就会犯极其荒谬的错误。
- 维护困难:随着规则数量增加,规则之间的冲突和依赖变得难以管理。
同时,随着摩尔定律的生效,通用的个人电脑(PC)性能迅速超越了昂贵的专用Lisp机器(Lisp Machines)。1987年,Lisp机器市场崩盘,Symboics等硬件厂商破产。日本的第五代计算机计划也宣告失败。AI再次被视为“过度承诺”的代名词,第二次寒冬降临。
第四章:统计学的静默复兴 (1993-2010)
90年代,AI在低调中发生了一次深刻的范式转移:从基于规则(Rule-based)转向基于数据(Data-driven)。研究者开始引入概率论、统计学和控制论工具,AI变得更加科学、严谨和务实。
4.1 贝叶斯网络与概率推理
朱迪亚·珀尔(Judea Pearl)引入了贝叶斯网络(Bayesian Networks),为处理不确定性提供了坚实的数学基础。AI不再试图构建完美的逻辑系统,而是计算在给定证据下假设成立的概率。这使得AI能够处理现实世界中充满噪声和不完整信息的问题。
4.2 机器学习的胜利:SVM与随机森林
这一时期,支持向量机(Support Vector Machines, SVM)和随机森林等统计学习算法占据了统治地位。SVM具有完备的数学理论(核方法、最大间隔分类),在小样本数据上表现优异,一度压倒了神经网络。
4.3 深蓝:暴力的美学 (1997)
1997年5月,IBM的深蓝(Deep Blue)超级计算机以3.5比2.5击败了国际象棋世界冠军加里·卡斯帕罗夫。深蓝并非基于现代的机器学习,而是基于大规模并行计算和精细调整的评估函数(α-β剪枝搜索)。
技术细节:深蓝的架构
4.4 大数据的黎明
随着互联网的普及,数据量呈指数级增长。Google等公司开始利用海量用户数据改进搜索和翻译算法。彼得·诺维格(Peter Norvig)曾言:“我们没有更好的算法,我们只是有更多的数据。”(We don't have better algorithms, we just have more data.)这为后来深度学习的爆发埋下了伏笔。
参考文献
- McCulloch, W. S., & Pitts, W. (1943). A logical calculus of the ideas immanent in nervous activity. Bulletin of mathematical biophysics, 5(4), 115-133.
- Turing, A. M. (1950). Computing Machinery and Intelligence. Mind, 59(236), 433–460.
- McCarthy, J., Minsky, M. L., Rochester, N., & Shannon, C. E. (1955). A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence.
- Winograd, T. (1972). Understanding natural language. Cognitive psychology, 3(1), 1-191.
- Minsky, M., & Papert, S. (1969). Perceptrons: An Introduction to Computational Geometry. MIT Press.
- Lighthill, J. (1973). Artificial Intelligence: A General Survey. Science Research Council.