通过考虑这个A.I.来预防机器人启示录。道德问题

$config[ads_kvadrat] not found

Как правильно учить неправильные глаголы французского языка. Грамматика французского.

Как правильно учить неправильные глаголы французского языка. Грамматика французского.
Anonim

有一个道德机器人问题和场景必须回答,以便人工智能进步。

想象一下,有一个机器人控制着一个矿井,它意识到有一辆满载四名人类矿工的推车在轨道上不受控制。机器人可以选择移动轨道并杀死一个不知情的矿工,从而将四个保存在购物车中,或保持轨道不变,让四个矿工碰壁并死亡。你会选哪个?如果一个矿工是孩子,你的答案会改变吗?如果我们无法回答这个问题,我们如何对机器人进行编程以做出决定?

这些是在纽约举行的世界科学节活动中向小组成员和观众提出的题为“机器人的道德数学:能否对生死决定进行编码?”的问题。大多数选择将购物车引向一个矿工并改变这个人对一个孩子而言并没有改变许多受访者的思想,但这并不是一致的,人类的道德决定往往不是。

这是人类在人工智能不断发展时所面临的斗争的一个尖锐的例子,我们应对了用道德规划机器人的可能性。

“像伤害这样的概念难以编程,”纽约大学心理学和神经科学教授,几何情报公司的首席执行官兼联合创始人,小组成员加里·马库斯说。他说像正义这样的概念没有切割和干燥回答计划,我们目前没有一套良好的机器人道德超越阿西莫夫的法律,这些法律在电影中有特色,如 我是机器人.

他说这是他加入专家组的重点,开始讨论如何解决机器人道德问题。

Elon Musk本周讨论了他对人工智能的担忧,甚至暗示我们都生活在某种模拟中 矩阵 并且人类应该投资神经花边,这种神经花边将附着在大脑上,增加人类的认知能力。斯蒂芬霍金等其他未来学家警告过A.I.的危险。本周马特达蒙在麻省理工学院的毕业典礼上发出了同样的警告。

其他场景包括军事化的自主武器系统以及我们如何在道德和哲学上处理战场上的这些人类决策以及自动驾驶汽车在不久的将来可能必须做出的决定。

小组成员对于该做什么没有达成共识,但表示A.I.有很多好处。不应该因为这些问题很难而抛出窗外。他们建议更公开谈论这些道德的井问题,也许我们会更接近防止机器人的末日。

$config[ads_kvadrat] not found