La Voz De WNY
研究机构AI Now周三公布了在公共领域负责实施算法的新建议。他们的建议是针对纽约市议会1月组建的一个正在研究政府使用人工智能的工作组。
AI Now的报告, 算法影响评估:在公共机构中实现负责任的自动化 ,概述了部署算法时对透明度的需求。算法对我们的日常生活产生巨大影响,但它们的影响有时会被忽视。例如,由于它们被融入社交媒体和视频平台的基础设施中,因此很容易忘记程序通常会确定推送给互联网用户的内容。只有当出现问题时,例如阴谋论视频才能达到YouTube趋势列表的顶部,我们才会仔细检查影响在线体验的自动决策程序。
算法不仅限于互联网平台。在教育和刑事司法等领域,政府机构越来越依赖算法。在理想的世界中,算法可以消除人们对艰难决策的偏见,例如确定是否应该给予囚犯假释。然而,在实践中,算法仅与制作算法的人一样有效。
例如,通过调查 ProPublica 证明法庭使用的风险评估算法具有种族偏见。更糟糕的是,公共部门使用的许多算法都是私有的,有些公司拒绝分享其软件的基础代码。这使得无法理解为什么这些所谓的“黑盒子”算法会返回某些结果。
AI Now提供了一个潜在的解决方案?算法影响评估。这些评估建立了完全透明的规范,这意味着使用算法的政府机构需要宣传他们何时以及如何使用算法。报告称,“这一要求本身将大大有助于阐明正在部署哪些技术为公众服务,以及责任研究应该集中在何处。”
围绕算法的开放政策也将为公民审查和抗议其使用打开大门。您是否希望算法根据您控制之外的因素为您提供风险评估分数,尤其是当该分数可以帮助您确定是否进入监狱时?可能是,可能不是。无论哪种方式,确切地知道算法正在分析哪些变量是很重要的。
此外,AI Now建议为人们设置一个合法的标准,以反对不公平的算法。
例如,如果某个机构未能披露合理地属于自动决策范围的系统,或者如果它允许供应商进行舷外商业秘密索赔并因此阻止有意义的系统访问,那么公众应该有机会提出问题。如果该机构在公众意见征询期后拒绝纠正这些问题,则可以是机构监督机构,或直接在法院。
这些建议基本上归结为一个总体任务:如果你正在使用算法,那就不要暗淡了。
阅读完整报告。