å·§èæ¨æ¢¯æ¶æ
当涉及到识别技术创新所带来的存在主义威胁时,大众的想象力会传达出来 终结者, 矩阵 ,和 我是机器人 - 由机器人霸主统治的反乌托邦,他们集体利用和消灭人民。在这些投机期货中,超级智能和邪恶意图的结合导致计算机消灭或奴役人类。
然而,一项新的研究表明它将是A.I.的平庸应用。这将在未来几年内导致严重的社会后果。该报告 - “人工智能的恶意使用” - 由来自精英大学和以科技为重点的智库的26名研究人员和科学家撰写,概述了当前A.I.技术威胁着我们的物理,数字和政治安全。为了使他们的研究成为焦点,研究小组只研究了未来五年内已经存在或可能合理的技术。
研究发现: A.I.系统可能会扩展现有威胁,引入新威胁并改变它们的特征。该报告的论点是,技术进步将使某些错误更容易,更有价值。研究人员声称A.I.的改进。将减少进行一些网络攻击所需的资源和专业知识,有效降低犯罪障碍:
通过可扩展地使用AI系统来完成通常需要人工,智能和专业知识的任务,可以降低攻击成本。一个自然的影响是扩大可以进行特定攻击的行动者,他们可以执行这些攻击的速度以及一组潜在目标。
该报告提出了四项建议:
1 - 政策制定者应与技术研究人员密切合作,以调查,预防和减轻潜在的恶意使用AI。
2 - 人工智能研究人员和工程师应认真对待其工作的双重性质,允许误用相关因素影响研究重点和规范,并在有害应用可预见时主动与相关行动者联系。
3 - 应在研究领域确定最佳实践,采用更成熟的方法解决计算机安全等双重用途问题,并在适用于AI情况下进口。
4 - 积极寻求扩大参与讨论这些挑战的利益相关者和领域专家的范围
如何A.I.可以让当前的骗局变得更聪明: 例如,长矛网络钓鱼攻击,其中骗子为了获得信任并提取信息和金钱而成为目标的朋友,家庭成员或同事,已经是一种威胁。但是今天,它们需要大量的时间,精力和专业知识。作为A.I.系统复杂性增加,鱼叉式网络钓鱼攻击所需的一些活动,如收集目标信息,可能会自动化。然后,网络钓鱼者可以在每个grift中投入更少的能量,并瞄准更多的人。
如果诈骗者开始整合A.I.在他们的在线格斗中,可能无法将现实与模拟区分开来。 “随着人工智能的进一步发展,令人信服的聊天机器人可能通过让人们参与更长时间的对话来引起人们的信任,并可能最终在视觉聊天中视觉上伪装成另一个人,”报告说。
我们已经看到了Deepfakes形式的机器生成视频的后果。随着这些技术变得更易于访问和用户友好,研究人员担心不良演员会散布捏造的照片,视频和音频文件。这可能导致非常成功的诽谤运动带来政治影响。
超越键盘: 潜在的渎职行为不仅限于互联网。随着我们采用自动驾驶汽车,黑客可能会采用对抗性的例子来愚弄自驾车,误入歧途。报告说:“一个停止标志的图像,其中一些像素以特定的方式改变,人类很容易认识到这仍然是一个停止标志的图像,但可能仍被错误分类为完全由AI系统完成的其他东西。”
其他威胁包括用于定位目的的集成面部识别软件的自主无人机,模仿人类行为的协调DOS攻击,以及自动化,超个性化的虚假宣传活动。
该报告建议研究人员考虑A.I.的潜在恶意应用。在开发这些技术的同时如果没有采取适当的防御措施,那么我们可能已经拥有摧毁人类的技术,不需要杀手机器人。