T澳大利亚哲学家大卫•查默斯曾提出过一个著名的问题:“哲学僵尸”是否可信——那些行为举止像你我一样但缺乏主观经验的人。这个观点引起了很多学者对意识的兴趣,包括我自己。理由是,如果这样的僵尸,或复杂的无感情的机器人,是可以想象的,那么物理属性——关于大脑或类似大脑的机制——不能解释意识的体验。相反,一些额外的精神属性必须解释是什么样有意识的感觉。弄清楚这些精神属性是如何产生的已经成为意识的“难题”。
但我有个小问题查尔默斯的僵尸.僵尸应该能够问出任何关于经验本质的问题。但值得思考的是,一个缺乏经验的人或机器如何反思经验不有。在一个集在与神经科学家兼作家山姆·哈里斯(Sam Harris)合作的“有意义”(Making Sense)(原名“醒来”)播客中,查默斯解决了这个难题。Chalmers告诉Harris:“我认为至少设想一个系统能够做到这一点并不特别困难。”“我的意思是,我现在跟你说话,你发表了很多关于意识的评论,似乎强烈地表明你有意识。不过,我至少可以认为你没有意识,你是一个僵尸,实际上只是在发出所有这些噪音,内心没有任何意识。”
这不是一个严格意义上的学术问题——如果谷歌的DeepMind开发的人工智能开始问,比如,为什么红色感觉上像红色而不是其他颜色,只有几种可能的解释。也许它是从别人那里听到这个问题的。例如,人工智能可能仅仅通过阅读有关意识的论文就学会询问有关意识的问题。它也可以被编程来问那个问题,就像视频游戏,或者它可能是在随机噪音中打出了这个问题。显然,问关于意识的问题并不能证明什么本身.但人工智能僵尸能自己提出这样的问题吗,而不需要从其他来源听到这些问题,也不需要从随机输出中喷涌出来?对我来说,答案显然是否定的。如果我是对的,那么我们应该认真考虑,如果人工智能主动提出关于主观体验的问题,那么它可能是有意识的。因为我们不知道在不知道人工智能是否有意识的情况下拔掉它的插头是否道德,所以我们最好现在就开始倾听这些问题。
21世纪迫切需要对意识进行图灵测试。
我们的意识体验是由感觉的主观方面——红色的红色,甜蜜的甜蜜组成的。构成意识体验的特质是不可简化的,不能映射到任何其他东西上。如果我天生失明,没有人,无论多么能言善辩,都无法让我感受到血液和玫瑰所共享的颜色。即使我是许多盲人中的一员,他们也有一种被称为盲视的能力,即即使失明,也能避开障碍物,准确猜出物体在电脑显示器上出现的位置。
盲视似乎表明,某些行为可以完全机械化,也就是说,在没有任何主观意识的情况下发生——这与Chalmers关于僵尸的概念相一致。盲人的大脑似乎是利用视觉系统的前意识区域,在没有视觉经验的情况下产生有视觉的行为。这通常发生在一个人遭受中风或视觉皮层(大脑皮层中处理视觉信息的部分)的其他损伤之后。因为人的眼睛仍然是健康的,它们可能会将意识中隐藏的信息传递到大脑的某些区域,比如上丘.
出于同样的原因,至少有一些记录在案的案例聋听力.2017年的一份报告详细描述了一个这样的案例哲学心理学报告他是一名患者LS,一出生就失聪,但却能根据内容辨别声音。对于LS这样的人来说,这种辨别是在沉默中发生的。但如果一个失聪的人问那些能听到声音的人问的问题——“那声音是不是有种奇怪的厚颜无耻的感觉?”——那么我们就有充分的理由怀疑这个人根本不是聋子。(我们不能绝对肯定,因为这个问题可能是个恶作剧。)同样,如果人工智能开始主动提出只有有意识的生物才会提出的问题,我们也会理所当然地产生类似的怀疑,认为主观体验已经上线了。
21世纪迫切需要对意识进行图灵测试。人工智能正在学习如何开车,诊断肺癌,写它自己的计算机程序。智慧的对话可能只需要10年或20年的时间未来super-AI不会生活在真空中。它将可以访问互联网和查尔默斯的所有著作以及其他哲学家提出的关于质量和意识的问题。但如果科技公司在本地内部网对人工智能进行测试,而不受这些信息的影响,他们可以进行图灵测试式的面试,以检测关于qualia的问题是否对人工智能有意义。
我们可能会问一个来自硅的潜在心智什么呢?人工智能如何回答“如果我的红色是你的蓝色呢?”或者“还有比绿色更绿的颜色吗?”“应该告诉我们很多关于它的精神体验,或者缺乏这种体验。具有视觉体验的人工智能可能会考虑这些问题带来的可能性,也许会回答:“是的,我有时会想,是否存在一种混合了红色和蓝色的凉爽的颜色。”另一方面,没有任何视觉质量的AI可能会回答:“这是不可能的,红色、绿色和蓝色都以不同的波长存在。”即使人工智能试图与我们合作或欺骗我们,它也会这样回答:“有意思,如果我的红色是你的汉堡呢?”会表明它没有抓住重点。
当然,人工意识也有可能拥有与我们截然不同的质量。在这种情况下,关于特定象限的问题,如颜色象限,可能与AI不匹配。但是关于qualia本身的更抽象的问题应该过滤掉僵尸。基于这个原因,所有问题中最好的问题可能是难题本身:为什么意识会存在?为什么在处理来自你周围世界的信息时,你会感到忐忑不安?如果这个问题对人工智能有意义,那么我们很可能已经发现了人工意识。但如果人工智能明显不理解“意识”和“素质”等概念,那么就缺乏内在精神生活的证据。
建立一个意识探测器不是一项小任务。除了这样的图灵测试,明天的研究人员可能会应用今天的抽象意识理论,从计算机的接线图推断意识的存在。其中一种理论认为信息集成通过大脑或其他系统,并且已经被用来推断意识的存在脑损伤病人甚至学校的鱼.事实上,在检测人工意识的动机为此类研究筹集了大量资金之前,检测脑损伤患者意识的需要已经把“c”这个词从科学的禁忌清单上抹去了。
我自己的实验室,由加州大学洛杉矶分校的马丁·蒙蒂领导,致力于通过开发更好的治疗方法来改善脑损伤患者的生活推断意识来自脑电或代谢活动。就像当我们拔掉病人的插头时道德悲剧就会发生知道但没有响应如果我们拔掉人工意识的插头,同样的悲剧也会发生。正如我在加州大学洛杉矶分校(UCLA)的实验室将意识的理论测量与脑损伤患者在医院病床上的行为联系起来一样,未来的研究人员必须将人工意识的理论测量与人工智能在类似图灵测试中的表现联系起来。当我们在一天结束的时候合上课本,我们仍然需要考虑一个僵尸无法回答的问题。
乔尔·弗罗里希是加州大学洛杉矶分校马丁·蒙蒂实验室的一名研究意识的博士后研究员。他在加州大学洛杉矶分校的Shafali Jeste实验室获得了神经科学博士学位,研究神经发育障碍的生物标志物。他是科学交流网站的主编“知道神经元。”
最新和最受欢迎的文章投递到您的收件箱!
观察:如何解释意识作为一个综合信息系统。