事实如此浪漫

为什么人工智能在计算能力上落后于人脑

pspn /伤风

R.最近的进展使深度神经网络成为人工智能的主要范例。深度神经网络的一个伟大之处在于,只要给出大量的例子,它们就能学会如何行动。这意味着我们可以让软件学会做一些连程序员都不知道怎么做的事情。任务越复杂,神经网络就越强大。

尽管受到大脑结构的启发,神经网络的研究通常与实际的神经元没有任何关系。但在一个最近的分析,希伯来大学耶路撒冷神经科学家大卫贝纳吉和他的团队发现了深度神经网络需要多大的强大,以复制一个人的行为单神经元.令人惊讶的结果是:一个非常非常强大的结果。

想想许多大脑的10亿神经元作为深度网络本身。

使用人工神经网络,而不是直接按照思维规则编程,程序员可以制作一个可以从输入数据中学习的系统。它之所以被称为神经网络,是因为它的结构受到了大脑神经元的启发——尽管人工神经网络的“单位”比生物神经元要简单得多。

一个人工神经网络有成千上万的例子。每当它遇到一个新的例子,它就会微妙地改变单元之间的联系,以产生更好的输出。你可以训练神经网络来判断一幅图片是儿童还是成人。随着时间的推移,程序会学习如何做好它。

臭名昭着的然而,即使我们有一个正常工作的神经网络,对如何我们最终得到的是数千个单位之间的数值“权重”,这是很难看到和推导一般原则的。传统的(“浅”)神经网络只有三层(一个输入层,一个隐藏层和一个输出层)。

传统的神经网有两个输入层(左侧绿色),一个“隐藏”层(中心中的五个)和一个输出层。 Mysid Dake /维基媒体

在过去的十年中,更多的隐藏层被有效地利用,这就是为什么它们被称为“深度”神经网络,进行“深度学习”。

“深度”神经网络就像传统网,但有多个隐藏层。 BrunelloN /维基

这使得人工神经网络在我们不知道如何思考的情况下尤其有用。你会如何向别人描述如何区分杰西·艾森伯格和迈克尔·塞拉的脸?没有人知道,但是,有了大量的图像,你可以训练一个神经网络来找出它。网络自己从例子中学习,我们不需要知道我们如何用传统的方式来编程。

那么神经科学家Beniaguev、Segev和London是如何利用神经网络更好地理解生物神经元的呢?之前的神经科学已经提出了偏微分方程来描述神经行为,该团队使用这些方程来计算当给定数千个随机产生的可能输入时,神经元会做什么。然后他们用这些输入和输出来训练深层神经网络。他们的问题是:深度学习神经网络要有多复杂才能对方程生成的模型进行建模?

估计神经网络结构复杂性的一种方法是查看使用了多少层——深度网络被称为“深度”,因为它们有不止一个隐藏层。复杂性的另一个衡量标准是每个隐藏层的单位数量。

事实证明,对一些神经元建模根本不需要深度网络。一种神经元是“整合-激活”。所有这些神经元所做的就是将兴奋性输入加起来,减去抑制性输入,然后在数量大于某个阈值时发出信号。研究人员可以用传统的“浅”神经网络(一个只有一个单元的单一隐藏层!)来建模。

得到了鹦鹉螺必威开户官网

最新和最受欢迎的文章投递到您的收件箱!


当他们试图模拟大脑皮层(L5皮质锥体,或L5PC神经元)中一种更复杂的神经元时,情况就不同了。他们发现,这些单个神经元比我们之前认为的要复杂得多:人工网络(时间卷积型)需要一个完整的七个每层有128个单位,以成功模拟锥体神经元。

更深入的调查表明,这些神经元不会在其立即投入释放或未发射。相反,它们集成了数十毫秒的输入。枝晶(神经元的输入结构)似乎通过自己的信息(当到达输入)以及时间(每个输入到达时)的信息来实现重大处理。每个神经元都是,当作者把它置于一个“复杂的计算单元”,全部。

事实上,而不是认为大脑就像一个深入的学习网络,也可能更准确地思考大脑的10亿个神经元作为深度网络,每一个都有五到八层。如果是的,这意味着大脑的计算能力远远大于我们认为的大量,并且在生物学层面模拟大脑将涉及令人惊讶的大型计算资源。(这对像我这样的科学家来说是坏消息,他希望在机器上模仿人类的思想来更好地了解它们。)

银色衬里是,作为深度学习网络的复杂是,它们是计算的更高效的比偏微分方程给出的更全面的描述要复杂得多,因为每个神经元都需要解上千个偏微分方程。神经网络的计算速度要快2000倍左右,未来的深度学习设计可能会让它更快。

吉姆戴维斯是卡尔顿大学认知科学系教授。他是屡获殊荣的播客头脑的共同主持大脑。他的最新书是成为你的狗认为你的人:你是一个更好的科学

加入讨论