这个机器人已经学会了如何对人类的需求说'不'

$config[ads_kvadrat] not found
Anonim

机器人,就像人类一样,必须学会何时说“不”。如果请求是不可能的,会造成伤害,或者会使他们分散手头的任务,那么这符合'机器人和他的人类一样的最佳利益外交 不用了,谢谢 成为谈话的一部分。

但机器什么时候应该回话?在什么条件下?工程师正试图弄清楚如何灌输这种如何以及何时违反人形生物命令的意识。

看着这个Nao机器人拒绝向前走,知道这样做会导致他从桌子的边缘掉下来:

简单的东西,但对于检查人为错误肯定是必不可少的。塔夫茨大学的研究人员Gordon Briggs和Matthias Scheutz开发了一种复杂的算法,允许机器人评估人类要求他做什么,决定他是否应该这样做,并做出适当的反应。这项研究是在最近举行的人工智能促进协会会议上提出的。

机器人问自己一系列与任务是否可行相关的问题。我知道怎么做吗?我现在能够做到这一点吗?我通常能够做到这一点吗?我现在能做到吗?我是否有义务根据我的社会角色来做这件事?这样做是否违反了任何规范性原则?

结果是一个看起来不仅合情合理的机器人,有一天,甚至是明智的。

注意Nao如何改变他的想法,在人类承诺抓住他之后向前走。设想一个不同的场景很容易,机器人说:“没办法,我为什么要相信你?”

但Nao是一个社会生物,按设计。为了取悦人类是在他的DNA中,所以鉴于人类打算抓住他的信息,他盲目地走向深渊。当然,如果人类要欺骗他的信任,那他就会被哄骗,但无论如何他都信任。这是Nao的方式。

随着机器人伴侣变得越来越复杂,机器人工程师将不得不努力解决这些问题。机器人不仅要做出保护自身安全的决定,还要做出更大的道德问题。如果一个人要求机器人杀人怎么办?犯欺诈?摧毁另一个机器人?

机器伦理的概念离不开人工智能 - 即使我们未来的无人驾驶汽车也必须设计为代表我们做出生死攸关的选择。这种对话必然比提供行进命令更复杂。

$config[ads_kvadrat] not found