复读-作为一个外星人可能感觉不到任何东西

关闭

你已经阅读了每月两篇免费文章中的一篇。了解更多。

关闭

作为一个外星人可能感觉不到任何东西

人类可能有一件高级外星人没有的东西——意识。

人类可能不是宇宙中最伟大的智慧生物。地球是一颗相对年轻的行星,也是最古老的文明

H人类可能不是宇宙中最伟大的智慧生物。地球是一颗相对年轻的行星,最古老的文明可能比我们古老数十亿年。但即使在地球上,智人也许再也不是最聪明的物种了。

世界围棋、国际象棋和危险冠军现在都是ai。人工智能预计将在未来几十年内超越许多人类职业。考虑到其快速发展的速度,人工智能可能很快就会发展到人工一般智能——像人类智能一样,可以结合不同主题领域的见解,显示出灵活性和常识。从那时起,它向超级智能AI迈进了一小步。超级智能AI在各个方面都比人类聪明,甚至在科学推理和社交技能等目前看来属于人类领域的领域也比人类聪明。我们今天活着的每一个人,都可能是从第一个活细胞进化到合成智能的进化阶梯上的最后一梯级。

我们刚刚开始意识到的是,这两种形式的超人智能——外星人和人工智能——可能并不是那么截然不同。我们今天所目睹的技术发展可能在宇宙的其他地方都曾经发生过。从生物智能到合成智能的转变可能是一个普遍的模式,在整个宇宙中一遍又一遍地实例化。宇宙中最伟大的智慧可能是后生物性的,从曾经是生物性的文明中生长出来。(我和保罗·戴维斯(Paul Davies)、史蒂文·迪克(Steven Dick)、马丁·里斯(Martin Rees)和赛斯·肖斯塔克(Seth Shostak)等人都持同样观点。)从人类的经验来判断——这是我们仅有的一个例子——从生物学到后生物学的转变可能只需要几百年。


比起“人工的”,更喜欢“后生物学的”这个词,因为生物学和合成之间的对比不是很明显。想想一个生物大脑,它通过纯粹的生物增强来实现超级智能,比如纳米技术增强的神经微柱。这种生物将是后生物,尽管可能很多人不会称它为“人工智能”。或者考虑一个纯生物材料制造的电脑,就像重新想象中的赛昂突袭机< <太空堡垒> >里电视连续剧。

关键是,没有理由期望人类拥有最高的智慧。我们的大脑是为特定的环境而进化的,受到化学和历史偶然性的极大限制。但技术已经开辟了一个广阔的设计空间,提供了新的材料和操作模式,以及以比传统生物进化快得多的速度探索该空间的新方法。我想我们已经看到了为什么合成智能会超越我们的原因。

外星人工智能的目标可能与生物生命的目标相冲突。

硅微芯片似乎已经成为比神经元组更好的信息处理媒介。神经元的峰值速度约为200赫兹,而当前微处理器中晶体管的峰值速度为千兆赫兹。尽管人脑仍然比计算机聪明得多,但机器仍有几乎无限的改进空间。不久之后,通过对大脑进行反向工程并改进其算法,或者通过反向工程和不基于人脑工作原理的明智算法的某种组合,它们可能会被设计成与人脑的智能相匹配,甚至超过人脑的智能。

此外,人工智能可以一次下载到多个地点,易于备份和修改,可以在生物生命难以生存的条件下生存,包括星际旅行。我们可怜的大脑受到颅容量和新陈代谢的限制;与之形成鲜明对比的是,超级智能人工智能的触角可以延伸到互联网,甚至可以建立一个全星系的电脑,利用银河系中的所有物质来最大化计算。根本没有竞争可言。超级智能人工智能将比我们人类更持久。

假设我是对的。假设外星智慧生命是后生物时代的。我们应该如何理解这一点?在这方面,目前关于地球上人工智能的辩论很能说明问题。争论的两个主要论点——所谓的控制问题和主观经验的本质——影响着我们对其他外星文明可能是什么样子的理解,以及当我们最终相遇时它们可能对我们做什么。


R库兹韦尔对后生物进化阶段持乐观态度,认为人类将与机器融合,达到一个宏伟的技术乌托邦。但斯蒂芬·霍金(Stephen Hawking)、比尔·盖茨(Bill Gates)、埃隆·马斯克(Elon Musk)等人表达了对人类可能失去对超级智能人工智能的控制的担忧,因为它可以重写自己的程序,在思维上超越我们内置的任何控制措施。这被称为“控制问题”——即我们如何控制一个既神秘又在智力上远远优于我们的人工智能的问题。

超级智能人工智能可以在技术奇点期间开发出来,这是一个突如其来的转变,当越来越快的技术进步,特别是智能爆炸超出我们的预测或理解能力时。但是,即使这样一种智能以不那么引人注目的方式出现,我们也可能无法预测或控制它的目标。即使我们可以决定在我们的机器中构建什么样的道德原则,道德编程也很难用一种简单的方式来指定,而且这种编程在任何情况下都可以被超级智能重写。一台聪明的机器可以绕过诸如杀戮开关之类的防护装置,并可能对生物生命构成潜在的生存威胁。数百万美元正涌入致力于人工智能安全的组织。计算机科学界一些最优秀的人才正在研究这个问题。他们希望能创造出安全的系统,但许多人担心控制问题是无法克服的。

鉴于此,与外星智慧体接触可能比我们想象的更危险。生物外星人可能很有敌意,但外星人工智能可能带来更大的风险。它的目标可能与生物生命的目标相冲突,它拥有远远优于生物生命的智力能力,并且比生物生命更持久。

这就为所谓的主动地寻找地外文明提供了理由。在主动地寻找地外文明的过程中,我们不仅仅是被动地倾听来自其他文明的信号,而是有意地宣传我们的存在。最著名的例子是1974年,弗兰克·德雷克(Frank Drake)和卡尔·萨根(Carl Sagan)使用波多黎各阿雷西博(Arecibo)的巨型碟形望远镜向一个星团发送信息。主动SETI的支持者认为,我们应该使用最强大的无线电发射器,比如阿雷西博(Arecibo),向离地球最近的恒星方向发送信息,而不是被动地监听外星智慧生命的迹象。

当考虑到控制问题时,这样的程序给我的印象是鲁莽的。虽然一个真正先进的文明可能对我们不感兴趣,但在数百万文明中,即使是一个敌对的文明也可能是灾难性的。在我们能够确信超级智能人工智能不会对我们构成威胁之前,我们不应该让人们注意到自己。主动SETI的支持者指出,我们的雷达和无线电信号已经可以探测到,但这些信号相当微弱,而且会很快与自然星系噪声混合。如果我们发射意图被听到的更强烈的信号,那就是在玩火。

为什么无意识的机器会有我们对生物智能同样的重视?

最安全的心态是理智上的谦逊。事实上,除非像电影中那样出现明显的外星飞船在地球上空盘旋的场景到来我想知道,我们是否能够识别出真正先进的超级智能的技术标志。一些科学家预计,超级智能人工智能可能以黑洞为食,或创造出戴森球体(Dyson Spheres),一种利用整个恒星能量的巨型结构。但这些只是我们当前技术优势下的推测;声称我们可以预见一个文明的计算能力和能源需求,比我们自己的文明早数百万甚至数十亿年,这简直是狂妄自大。

一些最早的超级智能人工智能可能拥有大致模仿生物大脑的认知系统,例如,深度学习系统大致模仿大脑的神经网络。它们的计算结构可能是我们可以理解的,至少大致上是这样。它们甚至可能保留生物拥有的目标,如繁殖和生存。

但是,自我完善的超级智能人工智能可能会迅速演变成一种无法识别的形式。也许有些人会选择保留那些与他们最初模仿的物种相似的认知特征,为他们自己的认知结构设置了一个设计上限。谁知道呢?但如果没有上限,外星超级智能可能会迅速超越我们理解其行为的能力,甚至寻找它的能力。也许它甚至会与宇宙的自然特征融为一体;也许就像Caleb Scharf推测的那样,暗物质本身就是暗物质。

对不起,戴夫:如果你认为智能机器是危险的,想象一下外星智能机器能做什么。 YouTube/华纳兄弟。

主动SETI的拥护者将指出,这正是我们应该向太空发送信号的原因——让他们找到我们,让他们设计他们认为对像我们这样智力低下的物种是有形的联系方式。虽然我同意这是一个考虑积极SETI的原因,但遇到一个危险的超级情报的可能性超过了它。据我们所知,恶意的超级智能可以用病毒感染行星人工智能系统,而智慧文明可以制造隐形装置。在开始积极的SETI之前,我们人类可能需要达到我们自己的奇点。我们自己的超级智能人工智能将能够告诉我们银河人工智能安全的前景,以及我们将如何着手识别宇宙其他地方的超级智能迹象。认识一个人需要一个人。

人们很自然地会想,这一切是否意味着人类应该避免开发用于太空探索的复杂人工智能;毕竟,回想一下标志性的HAL《2001太空漫游.我认为,考虑未来禁止人工智能进入太空还为时过早。到人类能够用自己的人工智能研究宇宙的时候,我们人类可能已经达到了一个临界点。我们要么已经失去了对人工智能的控制——在这种情况下,人类发起的太空项目甚至不会发生——要么对人工智能的安全掌握得更加牢固。时间会告诉我们。


R智商并不是唯一需要担心的问题。通常情况下,我们认为如果我们遇到了先进的外星智慧生物,我们可能会遇到有着非常不同生物的生物,但在重要的意义上,他们仍然会有像我们一样的头脑——有某种东西,从内部,成为他们。想想在你醒着的每一刻,以及在你做梦的每一刻,你都感觉有些事情要发生了. 当你看到日出的暖色,或闻到新鲜烤面包的香味时,你就有了有意识的体验。同样,也有一些东西,它像是一个外国人或我们通常认为。不过,这一假设需要受到质疑。超级聪明的人工智能会有意识的经验吗?如果他们有,我们能告诉他们吗?他们的内心生活会对我们产生怎样的影响?

人工智能是否有内在生命的问题是我们如何评价它们存在的关键。意识是我们道德体系的哲学基石,是我们判断某人或某事是自我还是人,而不仅仅是机器人的关键。相反,他们是否有意识也可能是他们如何评价的关键我们.人工智能赋予我们的价值很可能取决于它是否有内在生命;它可以利用自己的主观经验作为跳板,在我们身上识别出意识经验的能力。毕竟,在某种程度上,我们重视其他物种的生命,是因为我们有一种意识的亲和力——因此,我们大多数人会害怕杀死黑猩猩,但不会害怕咀嚼苹果。

但是,具有巨大智力差异且由不同基质构成的生物如何能够识别彼此的意识呢?地球上的哲学家们一直在思考意识是否局限于生物现象。超级智能人工智能,如果它是哲学的话,同样会对我们提出一个“生物意识问题”,询问我们是否有合适的经验。

谁知道超级智能会通过什么样的智力途径来判断我们是否有意识。但就我们而言,我们人类如何判断人工智能是否有意识?不幸的是,这将是困难的。现在,你可以说你有经验,因为这感觉像是某种东西.你是你自己意识体验的范例。你相信其他人和某些非人类动物可能是有意识的,因为他们在神经生理学上与你相似。但是你怎么知道由不同的基质制成的东西是否具有经验呢?

例如,考虑一个基于硅的超级智能。尽管硅芯片和神经微柱都处理信息,但我们现在知道,它们在影响意识的方式上可能存在分子差异。毕竟,我们怀疑碳在化学上比硅更适合于复杂的生命。如果硅和碳之间的化学差异影响到与生命本身同样重要的东西,我们不应该排除化学差异也会影响其他关键功能的可能性,比如硅是否会引起意识。

人工智能研究人员、神经科学家和心理哲学家们都在积极讨论意识所需的条件。解决这些问题可能需要一种以哲学为基础的经验主义方法——这是一种在个案基础上确定信息处理系统是否支持意识以及在什么条件下支持意识的方法。

这里有一个建议,一种我们至少可以加强对硅是否支持意识的理解的方法。硅基脑芯片已经在开发中,用于治疗各种与记忆有关的疾病,如老年痴呆症和创伤后应激障碍。如果在某种程度上,芯片被用于大脑中负责意识功能的区域,如注意力和工作记忆,我们就可以开始了解硅是否是意识的基底。我们可能会发现,用芯片替换大脑区域会导致某些经验的丧失,就像奥利弗·萨克斯(Oliver Sacks)写的那些情节一样。芯片工程师可以尝试一种不同的非神经基质,但他们最终可能会发现,唯一有效的“芯片”是由生物神经元设计的。这一过程可以作为一种手段来确定人工系统是否可以是有意识的,至少当它们被放置在一个我们已经相信是有意识的更大系统中时是如此。

即使硅能引起意识,它也只能在非常特定的情况下才能这样做;产生复杂信息处理(人工智能开发者所关心的)的属性可能与产生意识的属性不同。意识可能需要工程意识一种有意为机器注入意识的工程努力。

这是我的担忧。在地球上或遥远的行星上,谁会把意识设计成人工智能系统呢?事实上,当我想到地球上现有的人工智能程序时,我就明白了为什么人工智能工程师会积极参与其中的某些原因避免创造有意识的机器。

在日本,机器人目前被设计用于照顾老人、清理核反应堆和打仗。自然而然地,问题出现了:如果事实证明机器人是有意识的,那么使用它们来完成这类任务是否道德?这和培养人类完成这些任务有什么不同呢?如果我是谷歌或Facebook的人工智能主管,在考虑未来的项目时,我不希望无意中设计出一个有感觉的系统,造成伦理混乱。开发一个有感知能力的系统可能会导致被指控为机器人奴隶和其他公共关系噩梦,甚至可能导致AI技术被禁止在人工智能被设计用于的领域使用。对此的一个自然反应是寻找机器人没有意识的架构和基底。

此外,自我提高的超智能消除意识可能更有效。想想人类的意识是如何运作的。只有一小部分人的心理过程是有意识的头脑可以接触到的。意识与需要注意和专注的新学习任务相关。超级智能将拥有每一个领域的专家级知识,其快速计算将覆盖整个互联网并最终覆盖整个银河系的庞大数据库。它有什么新奇之处?什么需要缓慢、审慎的关注?它不是已经掌握了一切吗?就像在熟悉的道路上驾驶经验丰富的驾驶员一样,它可以依靠无意识的处理。令人沮丧的是,对效率的简单考虑表明,最智能的系统不会有意识。在宇宙学的尺度上,意识可能是一个短暂的瞬间,在宇宙回归无意识之前,一种短暂的经验开花。

如果人们怀疑人工智能没有意识,他们可能会对智能倾向于后生物学的说法感到沮丧。它加剧了我们对存在的担忧。为什么无意识的机器会和我们重视的有意识的生物智能一样重要?

很快,人类将不再是衡量地球智力的标准。也许在宇宙的其他地方,超级智能人工智能,而不是生物生命,已经达到了最高的智力水平。但也许生物生命在另一个重要的方面是独特的——意识体验。据我们所知,有感知能力的人工智能将需要一个仁慈的物种做出深思熟虑的工程努力,寻求创造有感觉的机器。也许一个仁慈的物种会认为创造自己的人工智能心智儿童是合适的。或者也许未来的人类将从事一些意识工程,并将感知能力发送到恒星。


苏珊·施耐德作者是人工你:人工智能和你思想的未来。她是美国国会图书馆的NASA巴鲁克布伦伯格主席和康涅狄格大学人工智能、心智和社会团体的负责人。她的作品已在PBS、历史频道、国家地理频道上进行了探索,并由纽约时报,科学杂志,史密森学会

这篇文章最初发表于鹦鹉螺的宇宙2016年12月。

加入讨论