第一代人工智能
1.1 物理符号系统假设
人类的智能行为究竟是如何产生的?为了回答这个问题,纽威尔(Newell)、西蒙(Simon)等人提出了一个模拟人类大脑的符号模型——物理符号系统假设。该假设认为,一个物理符号系统应当包含以下要素:
(1) 一组任意的符号集,以及一组操作这些符号的规则集; (2) 这些操作是纯语法的,即只涉及符号的形式,不涉及语义,操作的内容包括符号的组合与重组; (3) 这些语法具有系统性的语义解释,即它们能够指向特定的对象并描述相应的事态。
1955 年,麦卡锡(McCarthy)和明斯基(Minsky)等学者在达特茅斯人工智能夏季研究项目的建议书中,明确提出了符号 AI 的基本思路:"人类思维的很大一部分,是按照推理和猜想规则对’词’进行操作所组成的。" 基于这一思路,他们提出了基于知识与经验的推理模型。正因如此,符号 AI 又被称为知识驱动方法。
1.2 符号 AI 的发展历程
符号 AI 的开创者最初将注意力集中在研究推理的通用方法上,如"手段-目的分析""分而治之""试错法"等,试图通过这些通用方法来解决广泛的现实问题。然而,通用方法本质上是一种"弱方法",实际上只能解决"玩具世界"中的简单问题——比如机器人摆放积木、下简单的井字棋等,与解决复杂的现实问题相去甚远。
寻求通用 AI 的早期努力最终遭遇了挫折,符号 AI 在 20 世纪 70 年代初跌入了第一个低谷。幸运的是,斯坦福大学教授费根堡姆(Feigenbaum)等人及时转变了思路。他们认为,知识——尤其是特定领域的专业知识——才是人类智能的真正基础,并由此提出了知识工程与专家系统等一系列"强 AI"方法,为符号 AI 重新带来了希望。
他们率先开发了专家系统 DENDRAL(有机化学结构分析系统,1965–1975),随后其他学者相继开发了 MYCIN(血液传染病诊断与抗生素处方系统,1971–1977)、XCON(计算机硬件组合系统)等。不过,早期的专家系统规模普遍较小,难以投入实际应用。直到 1997 年 5 月,IBM 的"深蓝"国际象棋程序击败世界冠军卡斯帕罗夫,符号 AI 才真正证明了自己在大规模复杂系统中的实力。费根堡姆和雷蒂(Reddy)作为设计与构造大型人工智能系统的先驱,共同获得了 1994 年的 ACM 图灵奖。
1.3 符号 AI 在机器学习中的应用
符号 AI 同样可以应用于机器学习领域——将"机器学习"视为一种基于知识的归纳推理过程。下面以**归纳逻辑编程(ILP)**为例,说明符号 AI 的学习机制。
在 ILP 中,正负样本(具体示例)、背景知识和学习结果(假设)均以一阶逻辑子句(即逻辑程序)的形式表示。学习的过程,就是在假设空间中寻找一个最优假设——这个假设应当尽可能多地覆盖正例,尽量不包含负例,同时与背景知识保持一致。
一般情况下,假设空间非常庞大,学习过程十分困难。但引入背景知识之后,就可以极大地缩小假设空间的范围,使学习变得可行。显然,背景知识越丰富,学习速度就越快,效果也越好。
为了解决不确定性问题,近年来研究者又发展出了概率归纳逻辑编程方法。基于知识的学习由于拥有背景知识的支撑,能够实现小样本学习,并且很容易推广到不同领域,学习的鲁棒性也较强。
以迁移学习为例,可以将从一个场景中学习到的模型迁移到另一个场景,实现跨领域和跨任务的推广。具体做法如下:首先,从训练环境中识别出哪些知识可以跨域或跨任务迁移,哪些仅针对单个域或单个任务;然后,利用通用知识来提升目标域或目标任务的性能。这些通用知识主要通过以下四种渠道迁移到目标域:
- 源域中可利用的实例
- 源域与目标域之间可共享的特征
- 源域模型中可复用的部分
- 源域中实体之间的特定规则
由此可见,知识在迁移学习中发挥着关键作用,这也是符号 AI 易于跨领域和跨任务推广的根本原因。
1.4 符号 AI 的成功要素
在为符号 AI 的创立做出重大贡献的学者中,除费根堡姆和雷蒂之外,明斯基、麦卡锡、纽威尔和西蒙也先后获得了图灵奖,共计六位。总体而言,第一代 AI 的成功归结于以下三个基本要素。
以"深蓝"程序为例:
第一,知识与经验。 "深蓝"从象棋大师对弈过的 70 万盘棋局以及大量 5–6 个棋子的残局中,总结出了下棋的规则。此外,在与象棋大师的对弈过程中,通过调试"评价函数"中的 6000 个参数,将大师的经验融入了程序之中。
第二,算法。 "深蓝"采用了 α-β 剪枝算法,有效地提高了搜索效率,避免了不必要的计算分支。
第三,算力。 为了满足实时对弈的要求,"深蓝"使用了 IBM RS/6000 SP2 超级计算机,算力达到 11.38 GFLOPS(每秒 113.8 亿次浮点运算),每秒可检查 2 亿步棋,或在 3 分钟内模拟 5000 万盘棋局。
1.5 符号 AI 的优势与局限性
符号 AI 有着坚实的认知心理学基础,它将符号系统作为人类高级心智活动的模型。其核心优势在于可组合性:由于符号具有可组合的特性,可以从简单的原子符号组合成复杂的符号串。每个符号都对应着特定的语义,客观上反映了语义对象的可组合性——正如由简单部件组合成整体一样。可组合性是推理的基础,因此符号 AI 与人类理性智能一样,具有良好的可解释性,其推理过程清晰易懂。
然而,符号 AI 也存在明显的局限性。目前已有的方法只能解决完全信息和结构化环境下的确定性问题,其中最具代表性的成果便是 IBM"深蓝"国际象棋程序——它仅在完全信息博弈中战胜了人类,而这恰恰是博弈问题中最简单的情况。相比之下,人类的认知行为(如决策等)都是在信息不完全、环境非结构化的条件下完成的,符号 AI 距离解决这类问题还有很长的路要走。
1.6 符号 AI 面临的挑战
符号 AI 当前面临着多方面的挑战:
知识表示问题。 以自然语言形式表示的人类知识,计算机难以直接处理,必须寻找计算机易于处理的表示形式。现有的知识表示方法(如产生式规则、逻辑程序等)虽然便于计算机进行推理等操作,但表达能力有限,难以刻画复杂和不确定的知识,推理也仅限于逻辑推理等确定性方法。更加复杂的知识表示与推理形式(如知识图谱、概率推理等)仍在探索之中。
数学基础薄弱。 符号 AI 缺乏坚实的数学基础,除数理逻辑之外,其他数学工具很难被引入,这也是符号 AI 难以在计算机上高效执行的重要原因。
通用性与专用性的矛盾。 基于知识驱动的"强 AI"只能就事论事地解决特定领域的问题。是否存在一种广泛适用的"弱方法"——即真正的通用 AI——至今仍是一个值得深入探讨的问题。
知识获取效率低下。 从原始数据(包括文本、图像、语音和视频)中获取知识,目前主要依赖人工完成,效率极低,亟需探索有效的自动获取方法。
常识问题。 真正的智能系统需要具备常识,但常识的获取、表达和推理至今仍是一个未解难题。常识的数量极其庞大,构造一个实用的常识库无异于一项 AI 领域的"曼哈顿工程",费时费力。
