加州大学伯克利分校的新中心如何防止A.I.启示录

$config[ads_kvadrat] not found

La Voz De WNY

La Voz De WNY
Anonim

加州大学伯克利分校刚刚在越来越多的声誉良好的机构中加入了名称,这些机构致力于防止恶意人工智能摧毁人类。其新的人类兼容人工智能中心周一宣布,旨在确保A.I.仍然是有益的,也是排除A.I.启示。

伯克利自己的A.I.专家斯图尔特罗素教授正在领导该项目。开放式慈善项目向该中心提供了550万美元的拨款,其他人也提供了补助金。来自伯克利,康奈尔大学和密歇根大学的其他几位专家将担任联合首席调查员。

康奈尔教授巴特塞尔曼说 逆 关于中心,我们是A.I.s 应该 恐惧,为什么世界可能不会在一个手提篮里走向地狱 - 然而。

您希望通过人类兼容中心A.I.完成什么?

这些中心是一个相对较新的发展。人们进行投资 - 例如,生命未来研究所投资来自特斯拉的伊隆马斯克,以处理有关生命未来的问题,以及对生活和社会未来的可能威胁。伯克利的新中心是这样一个研究所的另一个例子。

它受到人工智能和计算在我们社会中不断变化的作用的启发。这些技术正在进入我们的社会,并将对我们产生影响。这些研究所将把研究人员聚集在一起研究可能产生的负面影响,或者如何确保没有负面影响。

该中心的标题表明A.I.和人性本质上是不相容的。那是你的观点吗?

这是人们的第一反应,这些事情可能是不相容的。我们实际上相信,通过适当的预防措施,以及适当的指导和研究,我们可以真正调整利益并确保这些技术是有益的。 A.I.技术具有巨大的积极作用,社会的目标是确保我们保持积极的一面。参与该研究所的研究人员认为这是可行的。

如果你可以采用一个世界末日的观点,那么A.I.诱导的世界末日场景最有可能是什么样的?

明显的风险是人工智能的军事发展,这可能导致各国之间的A.I.-武器军备竞赛:自主武器,遵循自己命令的自主无人机,由不同国家开发,相互敌对。这是我看到的最具体的风险。我想A.I.例如,为自动驾驶汽车开发的 - 对于社会中的常规角色 - 将是非常有益的。但军事方面是一个令人担忧的组成部分。

这已经是一场艰苦的战斗吗?

各国实际上正在考虑这个问题。从某种意义上说,这是一场艰苦的战斗:军方正在推动发展A.I.技术。但是,已达成协议 - 例如,生物武器可能是最着名的案例 - 各国在某种程度上决定它将使所有国家受益 不 大规模开发生物武器。我们希望各国能够意识到,对于每个人来说,下行空间太大,无法进入全面的A.I.军备竞赛。

如果双方都发展这项技术,那么没有人会领先。

还有什么我应该知道的关于中心,或关于恶意的A.I.一般来说?

给予积极的一面是很重要的。很容易强调风险 - 当然,这也是建立这些中心的部分原因 - 但同样重要的是要指出许多研究人员认为这种风险是可控的,而且好处将是巨大的。

你已经给了世界末日的观点。 A.I.的一些潜在的积极用途是什么?你真的很兴奋吗?

积极的一面将是一个我们得到这项技术援助的社会。例如,中文和英文之间的同声传译 - 人们可以在世界各地互相交谈,就像他们说的是母语一样。老年人护理:人们可以在家里呆多长时间,因为他们有一个家庭助理机器人可以帮助他们独立生活。

对于一般的生活,这可能会产生相当大的影响 - 就业,以及我们的优先事项。

是。有就业辩论,这是一个单独的辩论正在进行。将有足够的资源来支持每个人,因此我们的问题是如何确保每个人都从这些发展中获益。将重新认识到工作意味着什么,人们会做什么样的工作。但原则上,人们会有更多的自由,有更多的时间去做他们喜欢做的活动,因为机器会帮助许多其他更平凡的, 工作 型的东西。这需要一些时间,但我们相信社会会适应,并慢慢融入这些变化。

为了清晰和简洁,本次访谈已经过编辑。

$config[ads_kvadrat] not found