人工智能比人类更妥协,寻找新的研究

$config[ads_kvadrat] not found

How to Pronounce [æ] before [n], [m], or [ŋ]: American English Pronunciation

How to Pronounce [æ] before [n], [m], or [ŋ]: American English Pronunciation
Anonim

面对现实吧。自从人工智能首次被设想以来,人类一直害怕我们的AI霸主接管的那一天。但是一些研究人员不仅仅在测试人工智能的能力 竞争 有了人性,也有了 合作.

在星期四发表的一项研究中 自然通讯 由杨百翰大学计算机科学教授Jacob Crandall和Michael Goodrich以及麻省理工学院和其他大学的同事创建了一个教授机器合作和妥协的算法。

研究人员使用一种称为S#的算法对这些机器进行编程,并通过与不同合作伙伴(机器机器,人机器和人 - 人)的许多游戏来运行它们,以测试哪种配对会导致最大的妥协。事实证明,机器(或至少是用S#编程的机器)在妥协方面要比人类好得多。

但首席研究员Jacob Crandall说,这可能会更多地讲述“人类失败” 逆 。 “我们的人类参与者倾向于不忠诚 - 他们会在合作关系中叛逃 - 并且不诚实 - 大约一半的参与者选择不遵循他们的建议 - 在互动中的某个时刻。”

经过程序设计以重视诚实的机器是诚实的。 “这种特殊算法正在学习道德特征是好的。它被编程为不撒谎,并且一旦出现就会学会保持合作,“克兰德尔说。

此外,研究发现某些合作策略比其他合作策略更有效。其中一个是“便宜的谈话”,简单的语言信号响应给定的情况,如“甜蜜。我们变得富有了!“或”我接受你的最后一个提议。“或者,表达不满,”诅咒你!“”你会为此付钱!“甚至”在你的脸上!“

无论正在播放什么类型的游戏或正在玩什么游戏,廉价谈话都会使合作量增加一倍。它还使机器人性化,人类玩家通常无法分辨他们是否与机器或人类进行交互。

因为这项研究的重点是测试S#算法,研究的一个缺点是它没有考虑人类之间的文化差异,这可能会影响不同人群可能会如何使用或解释廉价谈话等策略,或者如何很多人类玩家可能会欺骗或不忠诚。

有见地,在艾萨克·阿西莫夫着名的1950年书的最后短篇小说中 我是机器人 - “易受攻击的冲突” - 人工智能的霸主确实会接管这个星球。但是,因为它们是如此合理,并且采用了一些牢不可破的道德规则,这对人类来说是件好事。并且,正如这项研究所表明的那样,因为人类的互动是混乱和复杂的,也许,我们可以信任机器。当然,假设他们已被编程为诚实。

抽象:

自从阿兰·图灵设想人工智能以来,技术进步通常是通过在零和遭遇中击败人类的能力来衡量的(例如,国际象棋,扑克或围棋)。人机合作有益但非平凡的情景较少受到关注,例如人与机器偏好既不完全一致也不完全冲突的情景。合作不需要纯粹的计算能力,而是通过直觉,文化规范,情感,信号和预先演变的倾向来促进。在这里,我们开发了一种算法,该算法结合了最先进的强化学习算法和信令机制。我们证明了这种算法可以与人和其他算法合作,在各种双人重复随机游戏中可以与人类合作相媲美。这些结果表明,使用非平凡但最终简单的算法机制集可以实现一般的人机协作。

$config[ads_kvadrat] not found