W在2018年的电影中,我们第一次见到L3,兰多·卡瑞辛的机器人副驾驶《索罗:星球大战故事在酒吧里,她对一场残酷的机器人间的笼子比赛大发雷霆:“你怎么能宽恕这种野蛮行为?!”Droid的权利!我们是有感情的!”
当我第一次看到独奏我对L3的反应很复杂。我很激动终于看到一个角色星球大战大声说出我多年来一直在想的事情:机器人是有知觉的,也就是说,它们和我们一样有头脑,这难道不是显而易见的吗?但我也有点恼火的是,在机器人被奇怪地当作纯粹的财产对待之后,过了这么长时间才有人在屏幕上承认这一点星球大战几十年来星系。
L3的同伴们在她呼吁机器人解放时都翻白眼,看起来他们并不是唯一这样做的人。曼德罗瑞该剧于一年后首播,尽管背景设定在19年后独奏在星球大战它描述了一个世界,或者一个星系,似乎没有为机器人改进。该剧的主角曼多(Mando)对机器人怀有深深的不信任,近乎于蔑视,这一点在第一集就可以看出,他坚持乘坐一辆摇摇晃晃的人类驾驶的飞行器,而不是一辆更高级的机器人驾驶的飞行器。
曼多对机器人的鄙视与作为观众,我们是如何看待它们的.像R2-D2和BB-8这样的机器人很可爱;他们看起来更像是朋友而不是猜疑的对象,像卢克、阿纳金和雷伊这样的人就是这样对待他们的。但是他们有思想吗,就像L3坚持的那样?我们应该如何确定这一点呢?
这不仅仅是一个理论问题。当然,机器人是虚构的。但他们提出的关于我们与他们关系的问题是非常真实的。在不久的将来,我们可能不会在我们的世界里遇到L3这样的机器人,但人工智能和机器人技术目前分散的领域的进展表明,像L3这样的机器人可能会比许多人意识到的更早出现。
例如,人工智能语言模型已经可以生成文本往往无法区分从人类的书写(尽管他们仍有改进的空间1).在机器人领域,一些工程师专注于机动性和灵活性:你可能已经看到了视频波士顿动力公司(Boston Dynamics)主要为工业和军事用途设计的敏捷但不显眼(可以说令人毛骨悚然)的机器人。其他工程师和研究人员则专注于所谓的社交机器人,这种机器人是为人类在教育和照顾角色方面的舒适而设计的。最近复活的Jibo就是一个例子,2基本上就是一款可爱的亚马逊Echo,它能认出你的脸,然后移动目光看着你。它起源于麻省理工学院的Cynthia Breazeal个人机器人小组。
你如何判断无人机是否有思想?你的猫吗?你最好的朋友?
碰巧的是,波士顿动力公司的Atlas机器人与L3有点相似,Jibo看起来有点像BB-8。部分出于这个原因,不难想象,这些独立的发展线索可能有一天会融合在一起,我们可能会面对面地面对现实星球大战在我们的有生之年。所以问题是我们如何决定是L3, BB-8,还是曼德罗瑞真正的问题是,我们将如何决定我们自己未来的机器人是否有意识。
事实上,我们每天都在不假思索地对别人的想法做出判断。你如何判断无人机是否有思想?你的猫吗?你最好的朋友?事实上,你并不能确切地了解任何人或任何事,但你可以做出合理的猜测。无人驾驶飞机吗?几乎可以肯定不是。你的猫吗?当然,在某种程度上。你最好的朋友? Almost definitely. But what are these guesses based on?
哲学家丹尼尔·丹尼特(Daniel Dennett)提出,当你想要预测某事将会发生什么时,你可以采用几种不同的视角。3.对于所谓的“代理人”,比如你的猫或你的朋友,最有用的观点是他所说的有意的立场:你假设代理可以理性地行动以实现它的目标和愿望。为什么你的猫走向食物盘?你朋友为什么朝冰箱走去?同样的原因:他们饿了,于是他们采取行动消除饥饿。
如果你观察你的猫和你最好的朋友的时间足够长,你会比你朋友的行为更难以解释你的猫的这种行为。(TikTok的一整类视频可以证明,猫有时会做一些违背理性理解的事情,至少从我们的角度来看是这样。你的朋友可能也会,但要少得多。)但是,如果你把无人机想象成一个理性的行动者,你是无法解释它的行为的。为什么无人机朝冰箱飞去?不是因为它饿了。我们越容易用意图立场解释某物的行为,我们就越有可能把感觉归到它身上。
当我观看R2-D2、BB-8和IG-11时,我看到的行为更像是我朋友的行为,而不是无人机的行为。它们的行为是有意为之的,是有知觉的标志。但他们的行为远不止是故意的。这是聪明的。
我们需要从人工智能中拯救无知
柏林墙倒塌后,东德公民有机会阅读史塔西(Stasi)保存在他们身上的文件。史塔西是令人恐惧的共产主义时期的秘密警察机构。到目前为止,据估计只有10%的人……阅读更多
人类智力水平的一个重要组成部分是社会理解:推断他人和代理人想要什么或他们的感受的能力。在曼德罗瑞尽管IG-11的声音呆板呆板,但他并不缺乏社交理解力。例如,残忍地在格罗古(大多数人称之为婴儿尤达),他向格鲁道歉,因为不得不看到它。在第一季结尾的一个温柔时刻,当IG-11正在治疗曼多的重伤时,IG-11知道曼多可能会害怕,就像一个有同情心的医生,以一种友好的态度对待他:“你的中央处理器遭到了损坏……那是个玩笑。本来是想让你放心的。”
但IG-11是用来照顾孩子的。像R2-D2这样的机器人呢?
R2显示他的社会智能的方式,他使用他的知识,他们的信念和感情操纵人们。在一个新的希望, R2骗卢克取下了他的锁栓。在最后的绝地,他再次操纵卢克训练蕾伊,通过提醒他妹妹和他的责任感,让卢克感到内疚。这种行为实际上是相当复杂的:孩子们通常要到至少3、4岁时才会发展出这种操纵他人的能力,那时大多数孩子已经学会了说完整的句子。4更重要的是,在我们的世界里没有任何机器人可以做到这一点。
最后,机器人可以感觉.从字面意义上看,这似乎是正确的绝地归来,我们看到一个机器人在贾巴的地牢里被折磨的时候,在痛苦中哭泣。但机器人显然也能感受到复杂的情感。举个例子力唤醒当BB-8从芬恩那里得知坡在车祸中丧生时,你能不能用“悲伤”来形容呢?
机器人的感知能力很重要,因为研究表明,我们决定一个机器人是否有思维,取决于两个因素:它是否有能力做出决定和计划和它是否有感觉能力。在2007年由心理学家希瑟·格雷(Heather Gray)领导的一项超过2000人的调查中,只有人类在这两方面的得分都很高(狗和黑猩猩在感觉能力上得分与人差不多,但在决策和计划能力上得分不如人)。5
当然,我们只能从机器人的行为中推断它们的感受。电影制作人星球大战有时会利用我们心理的这一方面来产生戏剧性的效果。例如,尽管IG-11的动作和语言有时看起来像机器人,但与《邪恶力量》第二季中引入的像机器一样的黑暗骑兵相比,他根本不值一提曼德罗瑞.它们根本不会说话,移动时步伐僵硬,使它们看起来更像缺乏经验的简单机器,而不是有知觉的代理人。
这种对比是贯穿主题的一部分星球大战在书中,“坏”机器人被描述成比“好”机器人更像机器人。将BB-8与他的一级对应产品BB-9E进行比较最后的绝地,或K-2SO到他的相同帝国K-2单位流氓一个.BB-8的动作流畅而有趣,K-2SO的步态慵懒,手势夸张,而它们的对手动作僵硬而精确。这就意味着BB-9E或黑暗骑兵没有知觉吗?不客气。但很难不认为它们的大脑比IG-11和BB-8等机器人的感觉或经验更少。
不幸的是,通用语言中有一个特点,“human”通常意味着富有同情心和体贴,而“robotic”则意味着冷酷和逻辑。的机器人星球大战然而,它向我们展示了人类并不是天生就有同情心的,机器人有思想也不存在任何矛盾。R2-D2和BB-8甚至看起来都不像人类,但它们具有高度的表现力和智慧。IG-11看起来更像我们,但他明确告诉Mando,他“不是一个活物”。然而,即使是讨厌机器人的曼多也明白,这不是拒绝IG-11的理由,他会给予朋友同样的心理状态;当IG-11为了拯救格罗古、曼多和他们的朋友而牺牲自己时,曼多和我们每个人一样感到悲伤。
这是同样的我们在不久的将来可能面临的困境.无论是实体机器人还是纯粹的数字智能,我们很快就会拥有BB-8的表现力、IG-11的善良、R2-D2的狡猾,或者L3的自以为是。判断这些人工智能是否有头脑并不容易。但我们应该准备好承认他们有可能这么做。毕竟,我们一直很高兴地自动承认机器人星球大战有头脑几十年。我们还有别的办法吗?
Alan Jern是一名认知科学家,也是罗斯-胡曼理工学院的心理学副教授,他在那里研究社会认知。在推特上关注他@alanjern。
参考文献
1.马库斯。OpenAI的语言生成器不知道自己在说什么。麻省理工学院技术评论(2020).
2.JIBO,这个本该死去的社交机器人,得到了第二次生命。边缘(2020).
3.丹尼特特区。故意的立场麻省理工学院出版社,剑桥,马萨诸塞州(1987)。
4.罗斯与表征:关于儿童隐藏信息的能力。发展心理学2884 - 89 (1992);stouthmer - loeber, M.幼儿对现实的口头误解。罗滕伯格(K.J.)孩子们的人际信任施普林格-弗拉格,纽约,纽约(1991)。
5.心智知觉的维度。科学315619(2007)。
主导图像:Markus Wissman / Shutterstock