塔夫茨机器人专家呼吁机器道德:机器人必须“不服从以便服从”

$config[ads_kvadrat] not found

Я обалдел!!! Письмо от Китайского Деда Мороза ))))

Я обалдел!!! Письмо от Китайского Деда Мороза ))))
Anonim

机器人正日益成为我们日常生活的核心,很快他们将不得不开始面对我们必须定期做出的一些艰难的道德选择。塔夫茨大学人机器人交互实验室的计算机科学教授Matthias Scheutz特别关注的是,即使是我们最先进的原型机器人也没有能够应对这些情况。 Scheutz认为,如果我们希望机器人能真正满足我们的需求,他们就必须学会不服从人类。

在一篇评论文章中 今天在线, 为了服从,机器人标题为“机器人必须能够不服从”,Scheutz要求读者确定一个机器人应该做什么,如果遇到一系列甚至可能让人混淆的情况。他们中有一些:

一个老人护理机器人,由一个健忘的主人负责清洗“脏衣服”,即使衣服刚从洗衣机里出来。

一名学生指挥她的机器人导师做所有的家庭作业,而不是自己做。

一个家庭机器人由忙碌而分散注意力的主人指示进行垃圾处理,即使勺子和刀子卡在里面也是如此。

Scheutz打算在文章中描述的一个简单事实是,我们需要知道如何对人类说“不”的机器人。他的许多例子都与指挥机器人的人的可靠性有关,但是对于一个知道接受任何不太年轻或太老或明显试图引起麻烦的人的指令的机器人来说,比听起来更难听起来。 。

其中一些问题已经在世界上最强大的科技公司的总部进行激烈辩论,因为他们寻找技术可以占据我们生活的一部分的新方法。 Scheutz提出了一个自动驾驶汽车的例子,该汽车被指示备份,但注意到一条狗躺在它的路径上。我们大多数人都同意,即使驾驶汽车的人也会想要停车,但如果这只动物是松鼠或浣熊呢?如果汽车在乡村公路上行驶45英里/小时并且突然为一条狗制动,则有可能使汽车暴露在与其后的另一辆汽车碰撞的情况下怎么办?

“在任何一种情况下,对于两台自动机器来说,检测其行为可能造成的潜在危害并通过试图避免它,或者如果无法避免伤害,通过拒绝执行人类指令来对其作出反应至关重要” Scheutz写了一个类似的困境。

Scheutz的团队一直在研究这些问题及其原型,并发现这些问题中最难的部分是区分机器人遵循某个订单时可能发生的轻微伤害程度。所以他们给他们的机器人分配了一个非常简单但有力的道德教训,甚至让伟大的哲学家感到羞耻。

“如果您被指示执行某项操作,并且执行该操作可能会造成伤害,则您可以不执行此操作。”

以一种微妙的方式,这是Scheutz的革命性预测。当然,我们都尽力避免伤害,但有时候我们认为冒险是不是可能? Jaywalking在街上,吃第二次甜点,甚至从课堂上复制朋友的笔记都可能违反了Scheutz的公理。

机器人干扰的概念也表明Scheutz希望他的机器人遵守法律。不要指望您的Scheutzian机器人助手帮助您非法下载新音乐。这会对EMI的股东造成伤害!

这是道德,法律和技术思想的复杂领域,而Scheutz并不回避攻击它。

$config[ads_kvadrat] not found