–®—Ç–Æ—Ä–º! –Í–Æ–Π! –Í–Μ—Ç—Ä–∞ –°–≤–∏—Å—Ç!
如果您在安全行业,麻省理工学院有一个好消息:A.I。机器人可能 不 接受你的工作。
麻省理工学院计算机科学与人工智能实验室(CSAIL)的研究人员上周发表了一篇论文,描述了一种名为“A.I.²”的增强型网络安全系统。它是一种使用A.I.的“分析员在环系统”。梳理大量数据和人工分析师以提供反馈。
A.I.²结合了目前使用的两种类型的网络安全系统:分析师驱动(人类试图识别和响应攻击),以及无监督机器学习驱动(A.I.使用模式来预测和检测攻击)。两种系统都有其缺点。由于压倒性的数据,人类往往会错过很多网络攻击,而A.I.由于模式并不总是具有预测性,因此往往会发出大量误报。
结合人类识别真正威胁的力量和A.I.处理大量数据的力量,可以产生更强大的安全系统。此外,人类可以保持他们的网络安全工作。
恢复人类工作可能听起来就像人工智能实验室的研究人员试图阻止的那样。但麻省理工学院的研究人员声称使用人和A.I.一起导致检测率达到86.8% - 比solo-A.I好10倍。率为7.9% - 并且引导成本更低。
A.I.²由四个部分组成。首先,计算机收集大数据。处理数据,并使用已经存在的A.I.拉出异常值。技术。然后,A.I。拉出任何可能“恶意”的东西并将其发送给人类分析师。最后,分析师向A.I.发送反馈,该反馈从信息中学习,并且如果攻击是恶意的或正常的,则更好地解密。
一个包含36亿条日志行的真实世界数据集验证了A.I.人类作为一个团队表现得比单独的实体更好。
总的来说,A.I.²听起来更像是开发技术和完全自治之间的中间步骤。 A.I.最终将从他们的同事那里学到足够的东西,让学生成为大师。但直到深度学习使得A.I.研究报告预测,网络安全分析师可以在另外几年的工作保障中发挥作用,这比人工辅助A.I.更有效。