自治武器会对非法订单说“不”吗?

$config[ads_kvadrat] not found

Beachbody Coaching

Beachbody Coaching
Anonim

当天花板开始在他身上崩溃时,Baynazar Mohammad Nazar在手术台上昏迷不醒。四个孩子的父亲在腿部被击中前一天进入医院检查,并在两天内进行了第二次手术,以确定他的受伤情况。当美国人开始摧毁这座建筑物时,在他身上工作的医生别无选择,只能尽可能快地逃离。

Andrew Quilty在 对外政策 在一篇文章中讲述了Baynazar生与死的故事,其中包括手术台上残留着尸体的照片。 10月2日,Baynazar是美国在阿富汗昆都士医院无国界医生(也称为无国界医生)开办医院时遇难的31人中的一人。

在高调,高级平民伤亡罢工之后,政治家和专家们会问这样的事情是如何发生的,以及可以采取哪些措施来确保它不会再次发生。在自主武器系统的支持者中,有时被称为“杀手机器人”,一个流行的论点是,人为错误(或恶意)是战争期间犯下的大部分罪行的原因。他们说,从理论上讲,机器人可以更准确地定位,并且比人类更容易出错。

美国海军战争学院教授迈克尔·施密特写道:“事实上,在激烈的战斗中,人类的判断力可能不如技术指标那么可靠。” “那些相信否则没有经历过战争迷雾的人。”

美国对阿富汗无国界医生医院的空袭主要是由人为错误造成的“http://t.co/X9TGIA81aD pic.twitter.com/TUwit97206

- 电报新闻(@TelegraphNews)2015年11月25日

那么,问题是:你能编制战争工具来限制人类行为,使昆都士医院的轰炸变得不可能,或者至少不太可能吗?

可能不会 - 至少在不久的将来。但是一些人工智能程序员设计了一种可以对人类说不的机器人。实验设计很简单:人类告诉机器人从桌子上向前走,机器人最初拒绝这样做。当人告诉机器人他会抓住它时,机器人接受命令。

从一架半自动攻击直升机告诉其人员无法对医院进行空袭,因为这将是一场战争犯罪,这是一个漫长的过程,但潜在的前提基本相同。正如其他人所指出的那样,人类对机器人中这种非常发展的焦虑在科幻小说中很常见 - 想想HAL-9000说“我不能那样做,戴夫”当它将人类锁定在空间站外时 2001年:太空漫游.

至于昆都士罢工的细节,围绕袭击的许多事实仍然存在争议。无国界医生要求美国政府反对的独立调查,而是承诺进行自己的检讨。

美国一项调查的某些部分在本月早些时候公布,并发现造成罢工的人为和机械错误。但本周早些时候,两名服务人员出面反驳报告的调查结果。他们说罢工不是一个错误。在他们的会计中,首先报道 美联社 美国特种作战部队呼吁罢工,因为他们虽然被医院用作塔利班指挥和控制中心。

在官方版本中,机械故障导致AC-130武装直升机的机组人员最初获得空地的坐标。然后,机组人员在该地区寻找符合他们所获物理描述的建筑物并开火。当他们的仪器重新校准时,他们给了机组人员正确的目标坐标,但无论如何,机组人员继续向医院开火。

如果这个说法是真的 - 计算机最终是准确的而人类忽视了它 - 它给予武器系统更大自治权的支持者一些信任。也就是说,美国反恐战争中充斥着军方或中央情报局打击“正确”目标的例子,最终还是杀死了大量平民。自动化不会解决不良情报,试图编制近似道德也不会结束战争罪。

美国有一种强烈的诱惑,即通过消除美国人的伤害来消灭战争和自动化,这注定会改变战争的定义。奥巴马对无人机杀戮的偏爱以及随之而来的保证无人机是有史以来最精确的武器,这些目标是最明显的表现。 “他们对基地组织及其附属机构进行了精确,精确的打击,”奥巴马在2012年的谷歌聚会上表示。

然而,2013年的政府研究对比了这些说法。调查发现,阿富汗无人驾驶飞机造成平民死亡人数是无人驾驶车辆的10倍。该研究的共同作者萨拉霍尔文斯基告诉“无人机在避开平民方面并不比战斗机更好。” 守护者 。 “当飞行的飞行员得到明确的指令和平民保护训练时,他们能够降低平民伤亡率。”

军方正在花费数百万美元开发人机器人团队系统,进一步模糊了有人或无人武器执行任务之间的界线。 “我们想要在人机战斗团队中做些什么就是把它提升到一个新的水平,看看诸如蜂拥战术之类的东西,”国防部副部长鲍勃·沃德告诉官方的国防部科学博客。 “F-35可以和四个无人僚机一起战斗吗?”

如果人类飞行员给他们一个类似于走出桌子的命令,那些僚机会不会说不?摧毁医院或学校的命令怎么样?在任何一种情况下,战争迷雾都将适用。如果我们决定覆盖机器,那么“人为错误”这一短语将成为未来冲突中更可怕的术语之一。

$config[ads_kvadrat] not found