针对ISIS的武器化机器学习将纠缠军事指挥系统

$config[ads_kvadrat] not found

Посылка от подписчиков №676. На праздничный стол 5кг

Посылка от подписчиков №676. На праздничный стол 5кг
Anonim

互联网上的每个人都和Tay一起度过了愉快的时光,微软的推特机器人在几个小时内变成了种族主义的大屠杀否认者(然后再回来再做一遍)。该公司创造了一个公共关系皮瓣 - 比灾难更多的事件 - 同时向公众提供关于机器学习的利弊的对象课程:自动化可以利用模式在速度上产生迷人的效果,但结果将难以预测。

通常情况下,军方是自动化技术的早期采用者。这是 - 曾经一度 - 引领机器学习,并拼命追求跟上。五角大楼关注的主要领域之一是自动机器人以及他们如何与人类合作 - 例如,一个R2D2型机器人僚机。但本周,国防部副部长Robert Work概述了A.I的另一项任务:开源数据处理。

“我们绝对肯定使用深度学习机器将使我们能够更好地了解伊黎伊斯兰国作为一个网络,并更好地了解如何准确地瞄准它并导致其失败,”秘书工作说,国防部的网站。根据那个帐户,工作,谁在一个由组织的活动发表讲话 华盛顿邮报 在观看一家硅谷科技公司时,他的顿悟是“一台机器从Twitter,Instagram和许多其他公共资源中获取数据,以显示2014年7月马来西亚航空公司17号航班实时击落。”

私营公司和执法部门长期以来一直试图理解“大数据”。但军方有一个优势:资源。此外,他们还可以访问机密材料。

美国政府似乎已经准备好打赌软件算法可以对那里的大量数据进行分类,以便识别原本无法实现的ISIS目标,并在规划者能够执行之前检测和破坏情节。政府已经在尝试研究社交媒体,以预测在线抗议活动的规模。毫无疑问,机器学习将使智能分析师越来越有能力理解世界上现有的大量信息。但是,当这种情报成为进行致命打击的基础时,道德问题就变得更加复杂,即使它们看起来很简单。

虽然工作很快说明五角大楼不会“将致命权威委托给一台机器”,但这仍然是最终的游戏。与此同时,人类将继续“在循环中”,就像行话一样。但是,当站在窗户旁边看着iPhone查看天气预报的任何人都知道,我们与设备和软件的关系并不简单。我们的问题很轻微,很容易被UI问题分散注意力。

“自动化偏差”,即人类推迟使用机器的趋势,呈现出明显且越来越危险的现象。说明这种现象的一个例子就是当你的手机告诉你走一条你知道错误的旅行路线但无论如何你做的时候,假设手机必须知道你不知道的事情。这是非军事背景下的常见问题。然而,五角大楼似乎也越来越靠近人工智能组成的威胁报告。除了人类难以实施之外,我们对该计划的潜在功效一无所知。

在2001年关于学生和专业飞行员以及自动化偏见的论文中,研究人员发现“在正确信息可用于交叉检查和检测自动化异常的情况下,两个群体都记录了大约55%的错误率。”该研究还发现添加额外的人类队友并没有缓解这个问题。

同样,去年麻省理工学院的一项研究有点令人不安地发现计算机和视频游戏玩家“更倾向于推翻自动化。”这可能意味着我们花在盯着屏幕上的时间越多,我们就越相信我们看到的东西。同样,问题不在于我们使用的系统,而在于我们使用它们的方式。错误不是我们的星星,而是我们自己。

大数据仍然充满希望。机器学习仍然充满希望但是,当机器向人类提出建议时,结果可以预测是不可预测的。 Tay的转变为新纳粹的厌恶女性是否意味着Twitter讨厌犹太人和女人?这很难知道,但不太可能。当我们不了解投入如何成为产出的过程时,我们很难以合理的方式处理结果。这让五角大楼处于一个有趣的位置。人们编程军事机器学习软件是否会成为订购空袭的人?这不是命令链的工作原理,但是当技术涉及时,指挥链会变得纠缠不清。

$config[ads_kvadrat] not found