本周,联合国正在召开“专家会议”,讨论联合国是否应该在它们存在之前禁止致命自治武器系统(LAWS)。如果你还没有被吓倒,可以考虑一种这样的自主武器:人工智能机器人军队。
或者考虑一个代表性的LAWS定义:
“LAWS的交付平台能够移动,适应其陆地,海洋或空中环境,瞄准和发射致命效应器(子弹,导弹,炸弹等),无需任何人为干预或验证。”
据报道,有一个这样的系统已经在朝鲜和韩国之间的非军事区使用。
除了放松自动人类定位器和杀手之外,这里的一部分担心是,将会有一场新的军备竞赛来发展和释放LAWS。如果这场军备竞赛起飞,那么 - 争论就会开始 - 那就不会阻止它了。这是我们这一代人相互确保毁灭的版本,除了它将脱离人类的手中。联合国希望采取初步行动,确保不会发生这样的破坏,而不是等待对法律引发的破坏做出反应。
通过这样的召集,联合国正在给予本来可能存在的边缘辩论的合法性。然而,其他强大的名字也引起了人们的关注。去年,生命未来研究所汇集了A.I.和机器人技术研究人员写一封公开信,敦促禁止自动武器系统。
人工智能(AI)技术已达到这样一个程度,即这种系统的部署 - 实际上如果不合法 - 在几年内,而不是几十年内是可行的,而且风险很高:自主武器被描述为战争后的第三次革命,火药之后和核武器。
史蒂芬霍金,埃隆马斯克,诺姆乔姆斯基和史蒂夫沃兹尼亚克,以及其他强大的名字,签署了签署该信。伊隆马斯克还向FLI捐赠了1000万美元,并且可以证实他们对LAWS引发的大灾难感到担忧。这是马斯克的捐赠后:
联合国非正式会议将持续到周五。虽然它本身不会导致法律禁令,但这是必要的第一步。