ä¸è¦å²ç¬æåçæ§
神经网络是A.I.未来的关键。根据埃隆马斯克的说法,全人类的未来。幸运的是,谷歌的DeepMind刚刚破解了代码,通过给予内部存储器来使神经网络变得更加智能。
在一项研究发表于 性质 10月12日,DeepMind展示了如何将神经网络和内存系统结合起来创建机器学习,不仅可以存储知识,还可以根据情况快速使用它进行推理。 A.I.面临的最大挑战之一让它记住东西。看起来我们距离实现这一目标还有一步之遥。
称为可微分神经计算机(DNCs),增强型神经网络的功能与计算机非常相似。计算机具有用于完成任务的处理器(神经网络),但是处理器需要存储器系统来执行来自不同数据点(DNC)的算法。
在DeepMind创新之前,神经网络不得不依赖外部存储器,以免干扰网络的神经元活动。
没有任何外部存储器,神经网络只能基于已知信息推理解决方案。他们需要大量的数据和实践才能变得更加准确。就像人类学习一门新语言一样,神经网络变得聪明需要时间。这也是同样的原因,DeepMind的神经网络在Go上非常出色但在基于策略的游戏中却很糟糕Magic:神经网络无法在没有内存的情况下处理足够的变量。
内存允许神经网络合并变量并快速分析数据,以便它可以绘制像伦敦地铁这样复杂的东西,并能够根据特定的数据点得出结论。在DeepMind的研究中,他们发现DNC可以自己学习回答有关目的地之间最快路线的问题,以及仅通过使用新呈现的图表和其他交通系统知识结束旅行的目的地。它还可以从家谱中推断出除了树之外没有信息的关系。 DNC能够完成给定任务的目标,而无需提供传统神经网络所需的额外数据点。
虽然这看起来可能不太令人印象深刻(谷歌地图已经非常擅长计算某个地方最有效的路线),但该技术对于A.I.的未来迈出了一大步。如果你认为预测搜索是有效的(或令人毛骨悚然的),想象它与神经网络内存有多么好。当你在Facebook上搜索Ben的名字时,它会知道你只是在一个共同的朋友的页面上看着他的照片,你的意思是来自街上的Ben而不是小学的Ben。
自然语言学习A.I.最终会有足够的背景来操作两种语言 华尔街日报 并能够理解Black Twitter。 Siri可以理解Pepe the Frog不仅仅是漫画中的角色,因为她每次都读过 逆 关于它的文章。
纽约大学认知科学家布伦登湖告诉我,网络能够从实例中学习'算法',这让我印象最深刻。 技术评论 。 “算法,例如排序或找到最短路径,是经典计算机科学的基础。他们传统上需要程序员来设计和实施。“
给A.I.理解上下文的能力使其无需编程算法。
虽然DeepMind的DNC不是神经记忆中的第一个实验,但它是最复杂的。也就是说,神经网络仍然处于早期阶段,在人类学习水平之前还有很长的路要走。研究人员仍然需要弄清楚如何扩展系统处理,以便它可以快速地使用每一块内存进行扫描和计算。
就目前而言,人类在神经学上占据了至高无上的地位。