Орфография французского языка. Когда ставить accent grave, а когда – accent aigu?
研究人员声称,人工智能需要透明度,因此人类可以将其考虑在内。代尔夫特理工大学副教授Virginia Dignum周五告诉纽约大学的观众,如果我们不理解为什么机器按照他们的方式行事,我们将无法判断他们的决定。
Dignum引用了科学作家兼研究员David Berreby撰写的一篇故事 今日心理学 :“有证据表明,当人们使用机器时,他们感觉自己不像单独或与其他人一起工作时的代理感。”
Dignum解释说,“手推车问题”是一个人们可能盲目相信机器选择正确结果的领域。问题是是否在假想的失控列车上切换杠杆,以便它杀死一个人而不是五个人。人们期望机器以最合理的方式解决问题。但情况可能并非总是如此,透明度有助于解释机器如何做出决定。
“这不仅是一个非常深刻的神经网络事件链,没有人能理解,而是以人们可以理解的方式做出这些解释,”她说。
A.I.使其工作清晰的是DARPA一直在探索的领域。该机构在8月份发布公告说,它正在寻找对可解释的A.I.感兴趣的团队。项目,称为XAI。这些系统将帮助研究人员了解A.I.做出了它做出的决定,给予更多的空间来决定如何处理由此产生的信息,而不是盲目地信任机器。
通过机器学习,Dignum指出透明度比以往任何时候都更加重要。 “我们不能指望这些系统,特别是机器学习机器能够立即学习和了解它,”她说。“我们不希望我们的司机在开车时充分了解交通法规。在许多国家,他们使用那些“L”牌来表示,“我正在学习,请原谅我可能犯的错误。”“观察人工智能,理解某些决定的行为以及基于此的行动对于停止仍在学习做出错误决定的机器。