复读-机器行为需要成为一门学科

关闭

您已经阅读了2篇免费月刊文章中的1篇。学习更多的知识。

关闭

机器行为需要成为一门学科

为什么研究人工智能行为的人只能是那些制造人工智能的人?

如果生理学家是唯一在各个层面研究人类行为的人会怎么样呢:从人体如何运作,到如何社交

W如果生理学家是唯一一个从各个层面研究人类行为的人:从人体如何运作,到社会规范如何形成,到股票市场如何运作,到我们如何创造、分享和消费文化?如果神经科学家是唯一负责研究犯罪行为、设计教育课程和制定打击逃税政策的人会怎样?

尽管人工智能对我们的生活影响越来越大,但我们对人工智能的研究是以这种方式进行的——由一个非常特定的群体进行的。那些科学家创造人工智能代理,即计算机科学家和机器人学家,几乎完全是那些学习人工智能代理的行为。

我们不能通过查看AI代理的源代码来证明它是合乎道德的,正如我们不能通过扫描人类的大脑来证明人类是善良的一样。

当这些计算机科学家和机器人专家创造他们的代理来解决特定的任务时——这不是一项小任务——他们通常专注于确保他们的代理完成预期的功能。为此,他们使用了各种基准数据集和任务,使得客观和一致地比较不同的算法成为可能。例如,电子邮件分类程序应该使用一些被人类标记的“基本事实”来达到将电子邮件分类为垃圾邮件或非垃圾邮件的准确性基准。计算机视觉算法必须在像ImageNet这样的人类注释图像数据集中正确地检测目标。自动驾驶汽车必须在各种天气条件下成功地从A点行驶到B点。游戏代理必须击败最先进的算法,或赢得特定荣誉的人类,如国际象棋、围棋或扑克的世界冠军。

这项针对AI代理行为的特定任务研究虽然范围很窄,但对AI和机器人领域的进展非常有用。它能够根据客观、广泛接受的标准快速比较各种算法。但这对社会来说就足够了吗?

人工智能代理 伊亚德拉万

答案是否定的:对智能代理(人类或人工)行为的研究必须在不同的抽象层次上进行,以便正确地诊断问题并设计解决方案。这就是为什么我们有各种各样的学科在不同的尺度上研究人类行为。从生理学到社会学,从心理学到政治学,从博弈论到宏观经济学,我们获得了关于人类如何单独和集体运作的补充观点。

在他1969年的里程碑式著作中,人工智能科学,诺贝尔奖得主赫伯特·西蒙写道:“自然科学是关于自然物体和自然现象的知识。我们问,是否也不能有关于人造物体和现象的‘人造’科学知识。”与西蒙的愿景一致,我们主张需要一个新的、独特的机器行为科学学科:智能机器表现出的行为的科学研究。

这门新学科关注的是对机器的科学研究,不是作为工程人工制品,而是作为一类具有独特行为模式和生态的新参与者。至关重要的是,该领域与计算机科学和机器人学重叠,但又有别于计算机科学和机器人学,因为它以观察和实验的方式处理机器行为,而不一定求助于机器的内部机制。机器行为类似于动物行为学和行为生态学研究动物行为的领域,不必关注生理学或生物化学。

人工智能知识差距:假设AI系统的数量和描述这些系统行为的研究数量之间存在差异。 Manuel Cebrian和Iyad Rahwan


O对于机器行为这一新领域的定义,有一些需要注意的地方。研究机器行为并不意味着人工智能算法具有能动性——从某种意义上说,它们对自己的行为负有社会责任。如果某人的狗咬了一个旁观者,狗的主人要承担责任。尽管如此,研究狗的行为还是很有用的,因此也能有效地预测狗的行为。类似地,机器嵌入到更大的社会技术结构中,人类利益相关者负责部署它们,并对它们可能给他人造成的伤害负责。

复杂的人工智能代理往往表现出内在的不可预测性:它们展示出的紧急行为是无法精确预测的——即使是它们自己的程序员也无法精确预测。

第二个警告是,机器表现出与动物和人类根本不同的行为,因此我们必须避免任何过度拟人化或动物化机器的倾向。即使从人类和动物行为的研究中借鉴科学方法可能被证明对机器的研究有用,但机器可能表现出甚至在性质上都不同的智能形式和行为模式外星人.

有了这些警告,我们认为,一个独特的新学科与研究机器行为将是新颖和有用的。我们不能通过简单地查看源代码或内部架构来研究机器,原因有很多。首先是复杂性导致的不透明性:许多新的人工智能架构,比如深度神经网络(Deep Neural Networks),可能表现出不容易解释的内部状态。我们通常不能通过查看源代码来证明人工智能是最优的或道德的,就像我们不能通过扫描人类的大脑来证明人类是优秀的一样。此外,我们今天认为符合道德和对社会有益的东西可能会随着时间的推移而逐渐改变,社会科学家能够追踪这些东西,但人工智能社区可能无法跟上,因为这不是衡量他们成就的方式。

伊亚德拉万

不考虑内部架构而研究机器行为的另一个动机是知识产权保护造成的不透明性。许多常用的算法,如新闻过滤和产品推荐算法,由于工业机密的原因,都是黑盒。这意味着驱动这些算法的内部机制对拥有和运营这些算法的公司之外的任何人都是不透明的。

第三,复杂的人工智能代理常常表现出固有的不可预测性:它们表现出即使是自己的程序员也无法精确预测的紧急行为。这些行为只有通过与世界和环境中的其他代理的交互才能表现出来。算法交易程序就是这样,它可以展示前所未见的行为制度通过复杂的市场动态。事实上,艾伦·图灵(Alan Turing)和阿朗佐·丘奇(Alonzo Church)证明,如果不实际运行算法,就不可能确保算法满足某些特性。除非我们执行代码并观察其行为,否则我们验证特定代码段总是满足理想属性的能力存在基本的理论限制。

但最重要的是,计算机科学和机器人技术之外的人对机器行为的科学研究,为机器影响的重要经济、社会和政治现象提供了新的视角。计算机科学家和机器人专家是地球上最有才华的人。但他们根本没有接受过正式的培训,学习诸如种族歧视、道德困境、股市稳定或社交网络谣言传播等现象。虽然计算机科学家已经研究了这种现象,但也有来自其他学科的有能力的科学家,他们有重要的技能、方法和观点。在我们作为计算机科学家的工作中,我们经常被我们的社会和行为科学合作者所折中。他们经常强调我们最初的研究问题是如何的不正确,或者我们对特定社会科学方法的应用是如何的不恰当。忽略重要的警告或得出过于强烈的结论。我们已经学会了——艰难地学会了——减缓处理大数据或构建机器学习模型的冲动。

在目前的情况下,计算机科学和机器人学以外的评论员和学者的贡献往往缺乏整合。这些学者中的许多人一直在发出警告。他们担心人工智能代理的广泛、意外后果,这些代理可以采取行动、适应并表现出紧急行为,这些行为往往违背其创造者的原始意图,而这些行为可能从根本上是不可预测的。

在缺乏可预测性的同时,人们担心人类可能会失去对智能机器的监督。一些人记录了许多看似良性的算法可能对个人或社区造成伤害的案例。其他人则对人工智能系统的不稳定表示担忧黑匣子他们的决策理论对受影响的人来说是不透明的,这削弱了他们质疑此类决策的能力。

人工智能机器越来越多地调节我们的社会、经济和政治互动——这只是未来的冰山一角。

虽然这些重要的声音在教育公众人工智能系统的潜在不利影响方面取得了巨大的进步,但他们仍然是旁观者——而且往往会在人工智能社区引发内部反弹。此外,许多当代讨论依赖于专家收集的轶事证据,并仅限于具体案例。我们仍然缺乏一个统一的、可扩展的、科学的方法来研究人工智能代理的行为,让社会科学家和计算机科学家可以无缝合作。当凯西奥尼尔写的纽约时报:“基本上没有一个独特的学术研究领域认真负责理解和批判技术的作用,尤其是对我们生活中如此多的决策负责的算法。”考虑到新的人工智能算法的发展速度,部署的算法数量与我们对这些算法的理解之间的差距只会随着时间的推移而增加。

最后,我们期望通过研究机器行为可以释放出巨大的经济价值。例如,如果我们能够证明一个给定的算法满足特定的道德、文化或经济行为标准,那么我们就可以将其作为一个市场进行推广。因此,消费者和负责任的公司可能会开始要求此类认证。这类似于消费者开始要求在生产他们消费的商品和服务的供应链中满足某些道德和环境标准的方式。机器行为学可以为人工智能代理的这种客观认证打下基础。


A.人工智能机器越来越多地调解我们的社会、经济和政治互动:信用评分算法决定谁可以获得贷款;算法交易程序在股票市场上买卖金融资产;网络优化调度算法地方警务; 节目算法判决现在影响谁被假释;在我们的城市环境中,自动驾驶汽车驾驶着几吨重的金属箱;机器人绘制我们的家庭地图,并进行定期的家庭清洁;算法会影响谁与谁进行匹配网上约会;很快,致命的自动武器可能会决定武装冲突中谁死谁活。这只是未来的冰山一角。在不久的将来,软件和硬件代理由人工智能(AI)驱动的技术将渗透到社会的各个方面。

无论它们是否具有拟人特征,这些机器都是一类新的代理,有些人甚至说,是居住在我们世界上的物种。我们必须利用我们所掌握的一切工具来理解和管理它们对人类的影响。如果我们做得对,也许人类和机器可以在一种健康、互利的关系中共同繁荣。为了使这种可能性成为现实,我们需要用一门新的科学学科迎头解决机器行为。


Iyad Rahwan是麻省理工学院媒体实验室的媒体艺术和科学副教授,也是可扩展合作小组的主任和首席研究员。

Manuel Cebrian是麻省理工学院媒体实验室的研究科学家,也是研究经理可扩展合作集团的成员。

参加讨论