T“人工智能的历史,”我的计算机科学教授在第一天上课时说,“是一段失败的历史。”这个严酷的判断总结了50年来让电脑思考的努力。当然,2000年计算机处理数字的速度比1950年快了10亿倍,但计算机科学先驱和天才艾伦·图灵在1950年就预言了机器的速度思考到2000年:具备人类水平的创造力、解决问题的能力、个性和适应性行为。也许他们不会有意识的(这个问题是问哲学家的),但他们会有个性和动机,就像机器人罗比或HAL 9000。我们不仅错过了最后期限,而且似乎离最后期限还很远。这是双重的失败,因为这也意味着我们不明白思考到底是什么。
从计算机时代早期开始,我们的思维方法就专注于如何表示关于哪些思想被思考的知识,以及在这些知识上运行的规则。因此,在20世纪40年代和50年代,当技术进步使人工智能成为一个可行的领域时,研究人员转向了正式的符号过程。毕竟,用符号和逻辑来表示“席子上有只猫”似乎很容易:
直译过来就是“存在变数”x和变量y这样x是一只猫,y是席子,还有呢x正坐在y这无疑是谜题的一部分。但这是否能让我们理解认为垫子上坐着一只猫?答案是否定的,部分原因在于等式中的那些常数。“猫”、“垫子”和“坐”并不像它们看起来那么简单。剥离它们与现实世界物体的关系,以及所包含的所有复杂性,使任何类似人类思想的项目注定要失败。
缺乏背景也是象征性人工智能登月计划的最后一次尝试的致命弱点。Cyc项目始于1984年,历时数十年,旨在创建一个了解世界一切的通用“专家系统”。在道格拉斯·莱纳特(Douglas Lenat)的指导下,一组研究人员开始着手对一个全面的常识库进行手工编码。它可以归结为数百万条规则的正式代表,比如“猫有四条腿”和“理查德·尼克松是美国第37任总统”。使用形式逻辑,Cyc(来自“百科全书”)知识库可以得出推论。例如,它可以得出结论,作者《尤利西斯》不到8英尺高:
(意味着
试图用逻辑拯救世界的人
沃尔特皮特被用来被欺负。他出生于禁止时代底特律的一个艰难的家庭,他的父亲是一家锅炉制造商,没有努力提高他的拳头以获得他的方式。邻里男孩不太好。一个下午...阅读更多
(writtenBy Ulysses-Book吗?演讲者)
(等于?扬声器jamesjoyce))
(isa JamesJoyce IrishCitizen)
(isa JamesJoyce人类)
(意味着
(isa ?有人人类)
(maximumHeightInFeet ?有人8)
不幸的是,并非所有的事实都如此清晰。以“猫有四条腿”这句话为例。有些猫有三条腿,也许有些变异猫有五条腿。(凯特·史蒂文斯只有两条腿。)所以Cyc需要一个更复杂的规则,比如“大多数猫有四条腿,但有些猫可能因为受伤而有更少的腿,而且猫可能有四条以上的腿,这不是不可能的。”同时指定规则和它们的异常会导致越来越大的编程负担。
经过25多年,Cyc现在包含500万个断言。Lenat表示,在Cyc能够像人类这样的理由之前,将需要100万。目前没有重大应用其知识库存在,但在近年来的项目中,该项目已经开始开发“恐怖主义知识库”。Lenat于2003年宣布,Cyc“预测”在他们发生之前的六个月内“预测”炭疽邮件攻击。当您考虑其他预测Cyc制造时,这一壮举令人印象深刻,包括使用训练的海豚炸毁胡佛大坝的可能性。
Cyc,以及它所依赖的形式符号逻辑,含蓄地对思考做出了一个至关重要而又令人烦恼的假设。通过将所有与特定思想相关的信息和关系聚集在一个虚拟的“空间”中,象征性方法追求的是丹尼尔·丹尼特所说的“笛卡尔剧场”——一种意识和思维的家园。正是在这个剧场里,一个思想所必需的各种线索被以正确的方式收集、组合和转化,无论这些方式是什么。用丹尼特的话来说,戏剧对于“在大脑的某个地方有一个关键的终点线或边界,标记一个地方,在那里到达的顺序等于经验中的“呈现”顺序,因为那里发生的是你意识到的。”的观点是必要的。他接着说,戏剧是身心二元论的残余,大多数现代哲学家已经发誓放弃这种二元论,但它微妙地坚持在我们对意识的思考中。
相信笛卡尔剧场这样的东西的动力是很明显的。我们人类或多或少的行为就像统一的理性主体,有着线性的思维方式。所以,既然我们认为自己是统一的,我们就倾向于把自己缩小为一个单一的身体,而不是一个单一的身体思想家,一些“机器中的幽灵”,动画和控制我们的生物体。它不必在头部 - 希腊人把精神(胸腺)放在胸部和呼吸 - 但它仍然是一个单一的,不可分割的实体,我们的灵魂生活在感官和记忆的房子里。因此,如果我们可以煮到不可分割的实体,肯定必须包含或位于某处。
这促使许多研究寻找思维发生的“区域”。笛卡尔假设我们不朽的灵魂通过松果体与我们的动物大脑相互作用。今天,对脑损伤患者的研究(正如奥利弗·萨克斯(Oliver Sacks)在他的书中记录的那样)表明,大脑不同部位的损伤是如何破坏功能的。我们知道,语言处理发生在大脑左半球额叶的布洛卡区。但由于大脑具有巨大的神经可塑性,一些布罗卡区受损的患者仍然能够理解语言。反过来,语言也只是我们所说的“思考”的一部分。如果我们甚至不能确定大脑是在哪里处理语言的,那我们就离找到那个神秘的实体“意识”还有很长的路要走。这可能是因为它并不存在于你可以指向的地方。
象征性人工智能、笛卡尔剧场和身心二元论的阴影困扰着意识和思维研究的最初几十年。但最终研究人员开始摆脱束缚。1960年前后,语言学先驱诺姆·乔姆斯基(Noam Chomsky)提出了一个大胆的观点:忘记意义,忘记思考,只关注句法。他声称,语言语法可以被正式表示,是一个计算问题,对所有人都适用,并硬编码到每个婴儿的大脑中。在接触语言的过程中,某些开关会被打开或关闭,以决定语法的具体形式(英语、汉语、因纽特语等等)。但这是一个选择的过程,而不是收购。不管语法规则是如何被实施的,它们都成为了世界各地研究项目的目标,取代了对“思想之家”的搜索。
乔姆斯基放弃了直接解释意义和思想的尝试,从而取得了进步。但他仍然坚定地站在笛卡尔的阵营里。他的理论本质上是象征性的,假设了各种潜在词汇之间的关系,这些词汇根植于天生的理性能力,从来没有做出任何预测,无一例外地被证明是正确的。现代人工智能程序更进一步,放弃了任何形式的知识表示。这些所谓的次符号方法,也被称为连接主义、神经网络和并行分布式处理,采取了一种独特的方法。不是由内而外——将符号化的“思想”注入计算机代码,然后祈祷程序能表现出足够的类似人类的思维——而是次符号化的方法由外而内:试图让计算机的行为完全不用担心代码是否真正“代表”思考。
年代象征性方法在20世纪50年代末和60年代被率先采用,但多年来一直处于闲置状态,因为它们最初产生的结果似乎比象征性方法更糟糕。1957年,弗兰克·罗森布拉特(Frank Rosenblatt)率先提出了他所谓的“感知器”,它使用了一种可重入反馈算法,以“训练”自己正确地计算各种逻辑函数,从而以最宽松的方式“学习”。这种方法也被称为“连接主义”,并由此产生了“神经网络”这个术语,尽管感知器比实际的神经元简单得多。罗森布拉特借鉴了像诺伯特·维纳(Norbert Wiener)、沃伦·麦卡洛克(Warren McCulloch)、罗斯·阿什比(Ross Ashby)和格蕾·沃尔特(Grey Walter)这样古怪的控制论先驱的理论,甚至实验了自我平衡机器,这些机器可以在环境中寻求平衡,比如格蕾·沃尔特(Grey Walter)的光线搜寻机器人“乌龟”和克劳德·香农(Claude Shannon)的迷宫奔跑机器人“老鼠”。
1969年,Rosenblatt通过符号人工智能倡导Marvin Minsky举办了象征性的攻击。袭击在20世纪70年代在20世纪70年代在20世纪70年代被遗弃的时候遗弃了次锁定方法。随着象征性的方法在20世纪70年代和20世纪80年代继续持续到持续的股东,像Terrence Sejnowski和David Rumelhart这样的人返回了亚马察人工智能,在生物系统学习后建模它。他们研究了简单的生物如何与他们的环境有何相关,以及这些生物的演变如何逐渐建立越来越复杂的行为。生物学,遗传学和神经心理学而不是逻辑和本体论。
这是双重的失败,因为这也意味着我们不明白思考到底是什么。
这种做法或多或少是放弃了知识作为一个起点。与乔姆斯基相反,对语法进行次符号研究的人会说,语法是由环境和机体的约束决定和制约的(心理学家约书亚·哈茨霍恩称之为“设计约束),而不是通过大脑中的一套硬编码的计算规则。这些约束条件并没有以严格的形式表达出来。相反,他们更宽松上下文比如,“有机体必须有一种方式来指代自己”和“必须有一种方式来表达环境的变化”。
通过放弃寻找包含符号和规则库的笛卡尔剧院,研究人员通过灌输了数据的速度,以利用知识灌输它们。子互动主义背后的基本真理是,语言和行为与环境有关,而不是在真空中存在,而且它们在这种环境中获得了他们的用途意义。使用语言是为了一个目的使用它。表现得是为了表现一些结局。在此视图中,任何生成通用规则集的尝试都将始终以异常串行,因为上下文是不断转换的。没有向具体环境目标的驱动,计算机中知识的表现毫无意义,无果皮。它仍然锁定在数据的领域中。
对于某些类型的问题,现代的次符号方法已经被证明比以往任何符号方法对相同的问题更具有普遍性和普遍性。这一成功说明,不必担心计算机是否“知道”或“理解”它正在处理的问题。例如,遗传方法将具有不同参数的算法表示为染色体“串”,并相互“繁殖”成功的算法。这些方法并不能通过改进而得到改进理解这个问题。最重要的是算法相对于环境的适应性,换句话说,算法的行为方式。这种黑盒方法在从生物信息学到经济学的各个领域都获得了成功的应用,但人们永远无法给出一个简明的解释,为什么最适合的算法是最适合的。
神经网络是另一种成功的次锁技术,用于图像,面部和语音识别应用。没有概念的表现在它们中,以及他们用于识别图像的特定子类的因素从算法本身的操作中出现。它们也可以令人惊讶:例如,色情图像通常不是通过特定身体部位或结构特征的存在而识别,而是通过图像中某些颜色的优势。
研究人员实现了从向机器灌输数据到向它们灌输知识的飞跃。
这些网络通常被测试数据“启动”,因此他们可以在仔细选择的样本上改进他们的识别技能。人类经常参与到收集这些测试数据的过程中,在这种情况下,学习环境被称为“监督学习”。但即使是对培训的要求也被抛在了后面。一些理论认为,大脑的某些部分专门用于识别特定类型的视觉图像,如脸或手2012年的论文计算机科学家在利用神经网络识别人脸方面取得了一些进展没有引发数据,在两者和不包含面部的图像之间。编程中无处可行的是任何明确的名称,由构成一个“脸”。网络自行发展此类别。它对“猫面”和“人体”具有相似的成功率(约80%)做了同样的事情。
尽管subsymbolic人工智能背后的成功令人印象深刻,有一个很接近浮士德式的捕捉:成功可能的条款禁止任何见解如何思考”的作品,而是确认没有秘密将在至少我们历史上的构想。越来越清楚的是,笛卡尔模型只不过是一种方便的抽象,是一种不可简化的复杂操作的简写,这些操作以某种方式(我们不知道如何)给我们自己和他人带来了思考的表象。用哲学家托马斯·梅辛格(Thomas Metzinger)的话说,新的人工智能模型要求我们摆脱“自我隧道”,并理解,当我们的自我意识支配着我们的想法,它不支配我们大脑.
我们没有定位大脑中有“脸”概念的地方,而是制造了一台电脑,它的代码也似乎缺乏"面子"的概念令人惊讶的是,这种方法在其他方法失败的地方取得了成功,让计算机对我们放弃试图传达的明确定义有了一点了解。在摆脱我们先入为主的“思想之家”概念的同时,我们不仅获得了新的人工智能水平,或许还获得了一种自我认识。
大卫•奥尔巴赫他是一位作家和软件工程师,住在纽约。他为Slate杂志写Bitwise专栏。
本文最初发表于2013年12月的《家》杂志。