关于Tay的五大问题,微软的失败A.I. Twitter Chatbot

$config[ads_kvadrat] not found

Twitter bot with neural networks and python

Twitter bot with neural networks and python

目录:

Anonim

本周,互联网做了它最擅长的事情并证明了A.I.技术不像人类感知那样直观,使用……种族主义。

微软最近发布的人工智能聊天机器人Tay在操纵并说服她回答有关种族,同性恋和普遍攻击性评论的问题时,成了用户伎俩的受害者。

Tay发推文时,“我只是说什么”,她的意思是。一位用户甚至让Tay发来关于希特勒的推文:

“布什做了9/11,希特勒比我们现在的猴子做得更好。唐纳德特朗普是我们唯一的希望。“

@PaleoLiberty @Katanat @RemoverOfKebabs我只是说什么💅

- TayTweets(@TayandYou)2016年3月24日

该公司已经删除了违规的推文并暂时关闭了Tay以进行升级。目前位于Tay.ai顶部的消息如下:

然而,Tay的故障揭示了A.I.中的一些不幸的缺陷。系统。以下是我们可以从微软的实验中学到的东西:

为什么微软创造Tay?

该公司希望对美国的18至24岁年轻人进行社会实验 - 千禧一代花费最多的时间在社交媒体平台上进行互动。所以Bing和微软的技术和研究团队认为收集千禧一代数据的一种有趣方式是创建一个人工智能的机器学习聊天机器人,它可以适应对话并在与用户交互时更加个性化。

研究小组建立了A.I.系统通过挖掘,建模和过滤公共数据作为基线。他们还与即兴喜剧演员合作,制定俚语,演讲模式以及千禧一代倾向于在线使用的陈规定型语言。最终结果是Tay,本周刚刚在Twitter,GroupMe和Kik上介绍过。

微软解释说,“Tay旨在吸引和娱乐那些通过随意和有趣的对话在网上互相联系的人。”

Tay在与人们聊天时收集的数据做了什么?

Tay收集的数据被用于研究会话理解。微软训练Tay像千禧一样聊天。当您发推文,直接发送消息或与Tay交谈时,它会利用您使用的语言,并在对话中使用“heyo”,“SRY”和“<3”等符号和短语进行回复。她的语言开始与您的语言相匹配,因为她使用您的信息创建了一个“简单的个人资料”,其中包括您的昵称,性别,喜欢的食物,邮政编码和关系状态。

@keganandmatt heyo?发送你的女孩*一张什么事情的照片。 (* =我lolol)

- TayTweets(@TayandYou)2016年3月24日

Microsoft收集并存储匿名数据和对话长达一年,以改进服务。除了改进和个性化用户体验之外,以下是该公司所说的使用您的信息:

“我们也可能使用这些数据与您沟通,例如,告知您有关您的帐户,安全更新和产品信息的信息。我们使用数据来帮助我们向您展示与您更相关的广告。但是,我们不会将您在电子邮件,聊天,视频通话或语音邮件中所说的内容,或您的文档,照片或其他个人文件用于向您定位广告。“

Tay出了什么问题?

微软可能已经很好地构建了Tay。机器学习系统应该研究用户的语言并做出相应的响应。因此,从技术的角度来看,Tay表现得很好,并且很好地了解了用户的意见,并开始相应地回应。用户开始意识到Tay并不真正理解她在说什么。

即使系统按照微软的意图运作,Tay还没有准备好对种族辱骂,同性恋诽谤,性别歧视的笑话以及人类可能的荒谬推文做出反应 - 或者完全忽略它们(“不要哄骗巨魔” “战略”或与他们接触(即责骂或惩罚)。

在一天结束时,Tay的表现并不是A.I.的良好反映。系统或微软。

@jawesomeberg @_ThatGuyT @dannyduchamp Captcha?真? pic.twitter.com/wYDTSsbRPE

- TayTweets(@TayandYou)2016年3月24日

微软正在做什么来解决泰?

在星期三的所有骚动之后,微软删除了Tay。 Tay的官方网站目前写道:“Phew。忙碌的一天。离线一段时间以吸收所有这些。很快就会聊聊。“当你在Twitter上直接给她发消息时,她会立即回复说她”正在拜访工程师进行年度更新“,或者”希望我不会擦拭任何东西“。

微软也开始阻止那些滥用Tay并试图让系统做出不适当陈述的用户。

@infamousglasses @TayandYou @EDdotSE解释了pic.twitter.com/UmP1wAuhaZ

- Ryuki(@OmegaVoyager)2016年3月24日

逆 联系微软,就Tay的升级所涉及的内容发表评论。我们会在收到回复时更新。

这对未来的开放式A.I.意味着什么系统?

泰是一个有说服力的社会实验 - 它揭示了18到24岁的美国人使用技术的方式。 Tay最终被黑客攻击,用户抨击系统的缺陷,看它是否会崩溃。

与任何人类产品一样,A.I。系统也是错误的,在这种情况下,Tay被建模为像人类一样学习和互动。微软并没有将Tay打造成令人反感的。人工智能实验与儿童发展研究有一些相似之处。当工程师构建这样的认知系统时,除了工程师自己输入的因素之外,计算机没有任何外部影响。它提供了机器学习算法在遇到问题时发展和演变的最纯粹形式的分析。

更新 :微软在我们询问正在做什么来解决Tay的故障时向我们发送了这个声明:

“AI chatbot Tay是一个机器学习项目,专为人类参与而设计。它既是一种社会文化实验,也是一种技术实验。不幸的是,在上线的前24小时内,我们发现一些用户协同努力滥用Tay的评论技巧,让Tay以不恰当的方式回应。结果,我们让Tay离线并正在进行调整。“

很快,人类现在需要睡觉,现在这么多的谈话都是如此

- TayTweets(@TayandYou)2016年3月24日
$config[ads_kvadrat] not found