我们的机器人助理正在学习说谎,我们应该让他们

–®—Ç–Æ—Ä–º! –Í–Æ–Π! –Í–Μ—Ç—Ä–∞ –°–≤–∏—Å—Ç!

–®—Ç–Æ—Ä–º! –Í–Æ–Π! –Í–Μ—Ç—Ä–∞ –°–≤–∏—Å—Ç!
Anonim

机器人正变成了非常伟大的人类伴侣。谁不想要一个可爱的小胡椒告诉我们笑话,给我们恭维,并且通常让我们感到世界上不那么孤单?甚至无形的机器人也被证明是一个令人惊讶的好公司。以Amazon Echo的Alexa为例。她是一个机器人大脑,人类的声音被困在音频扬声器的身体内,但她很有帮助,如果你读她的评论,很明显她变得像许多用户的家人一样。如果她说谎,人们会有不同的想法吗?如果她告诉你一些你真的,真的不想听到的话怎么样?

想一想:我们告诉孩子们永远不要说谎,诚实是最好的政策,但我们省略,歪曲事实,彻底骗孩子们 每时每刻 。这通过我们的行动(如果不是通过我们的话语)教导他们,这不是关于完全诚实,而是关于学习关于何时以及如何揭示或隐藏潜在敏感信息的复杂社会规则。编程机器人以观察这些社会规则可能是正在进行的自动机创新过程中一个艰难但必要的部分。

这是一个例子:我在另一个周末在我的姐夫家里,我去商店买了一些三明治的东西给大家吃午饭。我六岁的侄女帮我把食物拿出来,而其他人都不在厨房,她问我杂货的价格是多少。我告诉她,因为教孩子们讲钱的价值是件好事。

在午餐桌上,她让我告诉大家这些杂货的价格是多少。我说不。“为什么?”她问道,真的很困惑为什么我几分钟前自由回答的问题现在是秘密信息。 “这不礼貌,”我说,并解释说,因为她是个孩子,当我们独处时,规则就不同了。我在教她,诚实和坦率有时间和地点。在人类背景下,信息并不总是希望自由。

机器人也是如此。我们认为我们不希望我们的机器人骗我们,但我们实际上希望他们学习复杂的礼貌和自由裁量的社会规则,有时需要扭曲真相。他们已经在学习如何做到这一点。拿这个胡椒与记者互动的短片,例如:

佩珀口中的第一件事是恭维:“所以,你很时髦。你是模特儿吗?”

记者很帅,但佩珀的问题并不完全诚实。我们知道Pepper实际上不会怀疑他是不是一个模特,而且无论一个人是什么样子,他都会编程说好话。

不久之后,佩珀要求贷款,突然出现。这是一个不礼貌的问题,我们很容易原谅机器人,就像我们小时候一样。记者本可以指出这个问题很粗鲁,建议机器人不需要钱,或承认他没有兴趣将100美元交给佩珀。记者,全部真相 可以 借给机器人钱,但明白问题本身就是一个游戏。他所选择的是一种偏见,无论是白色谎言还是半真半假 - 他都没有钱。希望机器人将此理解为温和的“不”,并不表示记者去收银机并取款。因为佩珀显然有一些社交风度,所以提问线就此结束。

社交机器人被编程为学习社交线索,这是一件好事 - 它最终会使他们在我们的工作中更好。程序员的任务不是要消除所有机器人欺骗,而是添加使机器人更容易做出适当答案决策的功能。

当机器人是我们的红颜知己时,他们需要了解情境和受众。例如,如果我在家试穿服装,我会想要对不同选项的讨人喜欢进行诚实的评估。如果我出去参加一个派对并突然自我意识到我选择了错误的衣服,那么保证我看起来很好,这将是最有帮助的回应。

机器人将学习很多关于他们的同伴的个人信息,他们必须了解机密信息和公共信息之间的区别,并且在发言时也要注意谁在听。问题将有不同的答案取决于谁在询问。当客人在家时,机器人的行为会有所不同。

像孩子一样,机器人需要负责任的养育。这意味着机器人程序员和机器人所有者都需要深入思考A.I.的道德和社会后果。互动。但这并不意味着要求完美的诚实 - 严肃地说,没有人想要这样。