社交媒体拖钓:如何A.I.更好地预测Shitposts

$config[ads_kvadrat] not found

Deep Dance 28 Part 2 Ice Mc Videomix

Deep Dance 28 Part 2 Ice Mc Videomix
Anonim

互联网是由巨魔运行的地狱景观,并由无用的Facebook论点或更糟糕的主导。虽然网络上的社交媒体巨头终于不情愿地开始推出更加强大的努力以试图劝阻贬损性对话,但这些解决方案往往是被动的,换言之,在损害已经完成之后。

因此,人工智能研究人员急于开发能够开发的系统也就不足为奇了 预料 它之前的在线论证。但正如康奈尔大学的一个研究小组最近解释的那样 逆, 这种迫切需要的创新并不是试图告诉未来。

计算机科学博士说:“在过去,一直在研究某一特定评论是否有毒。” Jonathan Chang。 “我们的目标略有不同,我们想知道是否有可能预测当前的民间对话是否会在未来某个时候失控。为了探讨这个问题,我们来看看维基百科编辑之间的对话,其中一些是民用的,另一些是失控的。“

Chang和他的同事分析了有时容易受到攻击的维基百科策展人之间发送的数百条消息。然后,他们使用了1,270个对话,这些对话采取进攻性的方式来训练机器学习模型,以试图自动化这种节制。他们的研究结果发表在7月15日计算语言学协会年会上发表的论文中。

那么“让所有人冷静下来”机器人怎么办?幸运的是,不要太破旧。最终准确率为65%,略低于人类72%的成功率。研究人员通过创建在线测验发现了这一统计数据,人们可以通过该测验测试他们的评论审核技巧。事实证明,很难弄清楚社交媒体用户是狂野还是保持民事。

“这个想法是为了表明任务很难但不是不可能 - 例如,如果人类只有50%的准确率,那么这并不比随机猜测好,而且没有理由认为我们可以训练机器去做更好,“张说。 “将我们的模型与人类的反应进行比较,让我们对我们的计算方法与人类直觉的相似或不相似有所了解。”

Chang不相信这会让互联网摆脱垃圾谈话,但他认为这是一种帮助人类社交媒体版主的方式。他们的算法不是必须关注每天可以发布的数百万条评论,而是可以识别出数百个有可能变成争论的风险。

虽然人们可能会认为梳理所有这些潜在的不可预测的争吵会让张某感到悲伤,但科学家表示,这种经历实际上给了他人类的希望。

“现在,围绕在线对话存在很多悲观情绪,但我们所看到的是,即使在谈话以不友好的方式开始的情况下,参与者仍有机会再次思考,改变他们的观点。语气,并使谈话走上正轨,以获得更明亮的结果,“他说。 “未来不是一成不变的。”

也许毕竟有互联网的希望。

$config[ads_kvadrat] not found