书评:“一千个大脑”由杰夫霍金斯

2021-04-14 00:38:43

杰夫·霍金斯获得了对神经科学可能导致人为一般情报的想法充分信誉 - 这是一个逐渐变成了繁殖的爱好的想法,最近是一项新工作。我并不孤单地找到他的鼓舞人心。 Andrew Ng在这里声称霍金斯帮助他说服了他作为一个年轻的教授,这是一个简单的缩放学习算法可以达到人为的一般情报(AGI)。 (讽刺地,讽刺地,由NG和其他人建造的霍金斯嘲笑在NG和其他人 - 霍金斯愿意:"是的,一个简单的缩放学习算法可以达到AGI,但不是那个学习算法!!")

霍金斯'最后一本书在2004年是智力。从那时起,他一直在做什么?好吧,如果你不想花时间阅读他的日记文章或观看他对YouTube的研究会议,请为你的好消息 - 他的新书,一千个大脑,出了!这里有很多迷人的东西。我要选择一对夫妇,我发现了特别有趣,重要的话题,但是更多地阅读这本书。更多的是我没有提到。

许多专家的神经科学家认为大脑是恐怖复杂的,我们几个世纪以来,从理解它足以建立AGI(即具有同样的常识和灵活理解世界的计算机系统和解决问题的能力人类。不是杰夫霍金斯!他认为我们能够理解大脑,足以将其原则复制到AGI中。他并不认为这个目标是几个世纪的距离。他认为我们在那里的大部分方式!去年在一次面试中,他猜到了我们在完成工作的20年内。

争论大脑在恐怖复杂的人乍一看乍一看似乎有一个强有力的案例。大脑具有高达10个11神经元,具有10个突触1014个突触,充满了复杂结构。一项研究发现了180个脑皮质内的不同区域。神经科学学生用“纹状体”,“哈伯拉斯”,“斯特拉米兰”,“弗雷拉”,“弗雷拉”和#34;脑干核"。 (测验:其中哪些是真正的大脑地区,哪种类型的意大利面?)每年我们得到另外50,000左右的新神经科学论文倾倒在我们无与伦比的大脑中的知识中,没有结束。

所以大脑确实是恐怖复杂的。正确的?嗯,杰夫霍金斯和思想思想家有反驳,它有两部分:

1.“老大脑”的可怕复杂性不计数,因为我们不需要它为AGI

根据霍金斯的说法,大部分大脑 - 包括脑​​大脑的不成比例的份额和恐怖复杂性,就像我提到的脑干核一样 - 只是不计数。是的,它很复杂。但我们不在乎,因为了解它不是建立AGI所必需的。事实上,了解它甚至没有帮助建立AGI!

我在这里谈论霍金斯叫“老大脑与新大脑”之间的区别。 “新大脑”是哺乳动物Neocortex,一个皱纹的表格,在人类外,缠绕在人类大脑的外面,约2.5毫米厚,大小的大型晚餐餐巾(如果你解开它)。 “老大脑”是大脑中的一切,(霍金斯)在哺乳动物,爬行动物等方面更相似。

“Neocortex是智慧的器官,”霍金斯写道。 “几乎所有的能力都认为是智力 - 例如视觉,语言,音乐,数学,科学和工程 - 是由Neocortex创建的。当我们思考某些事情时,它主要是新科的思考......如果我们想了解智能,那么我们必须了解Neocortex的表现以及它是如何实现的。动物不需要neocortex来过一个复杂的生活。鳄鱼的大脑大致相当于我们的大脑,但没有适当的新皮质。鳄鱼有精致的行为,关心它的年轻人,并知道如何导航其环境......但是没有任何接近人类智慧。“

我认为霍金斯'新的大脑/旧大脑讨论必然会驾驶神经科学家读者坚果。看,例如,你的大脑不是一个洋葱,里面有一个微小的爬行动物,或者看到目前的普遍解雇“三月大脑理论”。哺乳动物Neocortex实际上与其他动物中的“钯”密切相关,特别是鸟类和爬行动物的良好的钯(包括,是的鳄鱼!)。一名研究员(Tegan McCaslin)试图在鸟类钯和灵长类动物的新毒素之间进行头脑比较,发现智力没有明显的差异,当你固定的神经元数量时。最近的一篇论文发现了鸟类钯和哺乳动物Neocortex之间类似神经元电路的暗示证据。授予,神经元在鸟类钯中具有不同的空间布置,Vs哺乳动物Neocortex。但它是定义算法的神经元类型和连接,而不是空间布置。保罗·凯斯克将钯的原点一直追溯到最早的原型脑中。人类新科查确实相对于黑猩猩,但再次,“老脑”人体小脑和丘脑也是如此。

更重要的是(这些愤怒的神经科学家可能会继续),它不像新科奇自我工作。 “老大脑”丘脑占据了人类智慧,语言,音乐等的声称,因为新科的表现形式,同样与“老脑”基底神经节,小脑和海马。

好的。这一切都是真的。但我要把我的脖子伸出来说,霍金斯在这个问题上是“正确的精神”。我已经尝试过(例如,这里)掌握沿着同一条线更加谨慎和可靠的索赔。

我的版本:哺乳动物大脑有一个“Neocortex子系统”(同样地鸟和蜥蜴大脑有一个“钯子系统”)。该子系统实现了一种从头开始的学习算法(类似于随机权重 - 所以它在出生时对生物体完全没用),但是在它学习时,越来越多地帮助生物体。该子系统涉及Neocortex(或钯),以及海马,丘脑,我还包括基础神经节和小脑的至少一些部分。例如,绝对不是脑干。这个子系统并不是哺乳动物的特别“新”,而且我认为这个子系统的一些超原始版本的回归,也许有助于Lampreys导航他们的环境并记住其中的地方'常见的地方,或者是什么食物,或者常吃的地方。但是,子系统在人类中异常大而且很好地发展,它是人类智慧的家园,它主要围绕着Neocortex / Pallium的活动。

到目前为止,我的版本可以保持霍金斯(和志同道合的思想家)的所有好主意,同时避免有问题的部分。当然,我打开反馈意见。

2. Neocortex的可怕复杂性在学习内容中,而不是学习算法

根据霍金斯的说法,使大脑的AGI的第二种原因比它看起来更容易看起来“Neocortex看起来很相似”。他写道," Neocortex的复杂电路看起来非常相似,横跨物种,[甚至],[甚至]。存在差异。例如,Neocortex的一些区域具有更多的细胞和其他细胞,并且有一些区域在其他地方没有发现额外的细胞类型......但总体而言,与相似性相比,区域之间的变化相对较小。 "

一种类型的电路如何做这么多的事情?因为它是一种学习算法! Neocortex的不同部分接收不同类型的数据,并相应地了解不同类型的模式。

想想在深神经网络中不同神经元的开放显微镜可视化。有这么多的复杂性!但没有人需要设计复杂性;它被学习算法自动发现。学习算法本身是相对简单的梯度下降等。

通过同样的令牌,认知心理学家可以很容易地将整个职业生涯潜入成人Neocortex流程的复杂性。但在霍金斯和#39;我们可以在不做任何努力工作的情况下建立大脑的AGI。我们只需要找到学习算法,让' er RIP,它将自己构建音素加工机械。

霍金斯提供了各种证据,即Neocortex运行单一,大规模平行,清晰易读的学习算法。首先,如上所述," Neocortex中的各处看到的详细电路非常相似“。其次,“现代人类新皮质相对于我们的同源祖先的主要扩张发生在进化时间,即在进化时间内,截至几百万年。这可能是一种待进化发现多个新的复杂能力的时间,但进化是有足够的时间来制作更多的副本。“第三是可塑性 - 例如,盲人如何对其他目的使用他们的视觉皮质。第四,“我们的大脑并未演变为程序计算机或制作冰淇淋。"

在霍金斯谈论的情况下,有很多证据和反对。 (例如,这里'非常聪明的论点,有利的是,我在几天前看到了。)我以前写过皮质均匀性(这里,这里),并计划在这里做出更彻底和仔细的工作未来。现在,我只是说这肯定是一个值得认真的假设,即使它在神经科学中没有普遍接受,霍金斯也不是唯一一个相信它的人。

3.把它们放在一起,你在地平线上获得脑的脑电图

因此,如果我们确实可以通过逆向工程获得AGI,只需Neocortex(以及它的“辅助者”器官,如丘脑和海马),如果Neocortex是一个相对简单,人类清晰,学习算法,那么所有的突然间对于霍金斯来说,霍金斯听起来很疯狂,说大脑 - 类似的AGI是可行的,而不是几个世纪以来,而是已经开始在地平线上结晶。我发现这个愿景有趣当我第一次听到它,并且经过相当多的研究和接触到其他观点,我还是更加或更少的购买(虽然我提到的那样,我没有完成学习它) 。

顺便说一下,皮质均匀性的一个有趣的方面是它'我们需要(尚未)的巨大拼图件(尚未)符合人性和心理学的其他方面。应该有完整的书写。相反,没有。例如,我有各种各样的社会本能 - 内疚,欲望是流行的等等。这是怎么做的? Neocortex知道我是否受欢迎,但它不在乎,因为(在这个视图上)只是一种通用学习算法。老大脑非常关心我是否流行了很多,但了解世界太愚蠢了,所以它如何了解我是否受欢迎?我在这一点上随便推测(例如,这里),但在我们对大脑的理解中看起来似乎是一个巨大的洞,你不会在霍金斯书中找到任何答案......或者据我所知,其他任何地方我鼓励任何人阅读这个才能试图弄清楚,或者告诉我你是否知道答案。论文主题有人?

对于我到目前为止写的一切,我本可以写的是霍金斯2004年的书的基本相同。这并不是新的,尽管它仍然与以往一样重要和讨论。

这本书的一个很大的新部分是霍金斯和合作者现在拥有更精致的想法,了解neocortex正在运行的何种学习算法。 (提示:它不是由BackPropagation培训的深卷大神经网络。霍金斯讨厌那些!)

这是这本书的重要和​​重要部分。我要跳过它。我的借口是:我写了一段面试的摘要,他做了一段时间后,那个帖子涵盖了更多或更不相似的地面。也就是说,这本书描述了它更好,包括一个新的和助人(虽然有点粗略)对学习抽象概念的讨论。

为了清楚,万一你'重新想象,霍金斯没有一个完整的准备代码算法,了解Neocortex如何工作。他声称有一个框架,包括需要存在的基本成分。但许多细节尚未填补。

有些人(CF.Stuart Russell'书)担心AGI的发展构成了灾难性事故的大量风险,达到和包括人为灭绝。因此,他们敦促研究如何确保AIS强大地做人类希望他们做的事情 - 就像Enrico Fermi发明了核反应堆控制杆,在他建造了第一核反应堆之前。

杰夫霍金斯没有任何东西。 “当我读到这些问题时,”他说,“我觉得在没有任何理解情报的情况下正在做出的论点。”

好吧,我和霍金斯的潜在框架思考大脑和新科的底板,我更加有或更少。如果我们不花一些时间和努力,开发一种灾难性事故的灾难性事故风险,造成灾难性事故的严重风险,即使我们不花一些时间和努力为Fermi的控制杆的优秀发明制定新的好思想。

所以我想我处于一个异常的良好位置来制作这种情况!

我将首先总结霍金斯的论点,即新科查类似的AGI不会造成灾难性事故的存在威胁。以下是我认为是他的主要和最好的论点:

在科幻小说中提出了Asimov的三个机器人法律,并不一定适用于所有形式的机器智能。但在任何产品设计中,都有值得考虑的保障措施。它们可以很简单。例如,我的汽车有内置安全系统,以避免事故。通常,汽车跟随我的订单,我通过加速器和制动踏板进行通信。但是,如果汽车检测到我要击中的障碍,它将忽略我的订单并应用刹车。你可以说这辆车跟随Asimov的第一和第二种法律,或者你可以说设计了我的汽车的工程师,建在一些安全功能。智能机器也将有内置的行为安全。

其次,霍金斯表示,目标和动机与智力分开。他说,Neocortex是世界上的地图。您可以使用地图做好事或生病,但“一张地图没有自己的动机。地图不会渴望走出一些地方,也不会自发地发展目标或野心。 Neocortex也是如此。“

第三,霍金斯对“目标错位”的想法具有特定的分歧。他正确地描述了这是什么:“当一个智能化机器追求对人类有害的目标时,这种威胁应该出现,我们无法阻止它。有时被称为“巫师的学徒”问题......关注的是,一个智能机器可能类似地做我们要求它做的事情,但是当我们要求机器停止时,它认为作为完成第一个请求的障碍。机器追求任何长度来追求第一个目标......

目标错位威胁取决于两个可变性:首先,虽然智能机器接受我们的第一个请求,但它忽略了后续请求,而其次,智能机器能够征长足够的资源来防止所有人类努力阻止所有努力阻止它......智力是学习世界模特的能力。就像地图一样,模型可以告诉你如何实现某些东西,但是它自己没有目标或驱动器。我们是智能机器的设计师,必须竭尽全力在动机中设计。为什么我们将设计一台接受我们的第一个请求的机器,但在此之后忽略所有其他机器?......智能机器的第二个要求是智能机器可以征长地球资源,以追求其目标,或以其他方式预防我们从阻止它......这样做会要求机器控制绝大多数世界的通信,生产和运输......智能机器可以防止我们停止它是勒索的可能方法。例如,如果我们把智能机器放在负责核武器,那么机器可以说“如果你试图阻止我,我会把我们全力吹。”......我们与人类相似。这就是为什么没有单一人或实体可以控制整个互联网以及为什么我们需要多个人推出核导弹。“

现在我认为任何这些论点都不是特别不合理的。常见的线程在我看到的是,霍金斯写的是避免灾难性的AGI事故的合理想法的开始。但是当你想到那些更仔细的想法时,并尝试解决细节,它开始似乎更难,而且就像一个猛烈的扣篮,更像是一个可能或可能甚至无法解决的打开问题。

霍金斯写道,目标和动机与智力分开。是的!我完全在船上。如上所述,我认为Neocortex(以及丘脑等)正在运行通用学习算法,并且脑干等旨在孵化并执行涉及再现和获胜盟友的计划,并努力不孵化并执行涉及悬崖和狮子吃掉的计划。

通过同样的令牌,我们想要并期望我们的智能机器有目标。正如霍金斯所说,“我们不想向火星派一个机器人建筑工人团队,只发现他们整天躺在阳光下”!那么这是怎么做的?在这里'霍金斯:

为了了解这项工作的感觉,想象较旧的脑区与Neocortex交谈。老大脑说,“我饿了。我要食物。” Neocortex回应,“我寻找食物,在过去附近有两个地方发现了两个地方。达到一个食物,我们沿着一条河流。要到达另一个老虎队的开放领域。“ Neocortex在冷静地说出这些东西,没有价值。然而,旧的大脑区域将老虎与危险联系起来。听到“老虎”这个词后,旧的大脑跳进了行动。它释放[皮质醇] ......和神经调节者......实质上,告诉Neocortex“无论你只是想着,都不这样做。”

当我将该描述放入图表时,我结束了这样的东西:

Neocortex提出了想​​法和法官(在"老脑和#34;)判断这些想法是好的或坏的。

这是一个很好的开始。我肯定可以想象沿着这些线构建智能射击机。但是魔鬼是细节!特别是:我们究竟是什么算法,我们进入了“判断”框?让'思考它。

首先,首先,我们通常不应该期望“判断”成为一个了解世界的智能机器。否则,那种类似的机器需要自己的动机,我们就回到了我们开始的地方!所以我将假设法官盒子将容纳一种相对简单的人类算法。那么你完全放在那里,让机器人想要为火星殖民地建立基础设施?那个打开的问题,'

第二,鉴于法官盒比较愚蠢,需要做很多记忆的形式“这种毫无义的新皮肤活动模式是好的,这种毫无意义的新皮肤活动模式是坏的”,没有有线索那些模式实际上是卑鄙的。为什么?因为否则Neocortex会有一个aw

......