普通计算机程序预测累犯与人类一样糟糕

$config[ads_kvadrat] not found

Как правильно читать букву «С» во французском языке. Фонетика и правила чтения французского языка.

Как правильно читать букву «С» во французском языке. Фонетика и правила чтения французского языка.
Anonim

就像专业厨师或心脏外科医生一样,机器学习算法与其接受的培训一样好。随着算法逐渐占据统治地位并为人类做出决策,我们发现很多人没有接受最好的教育,因为他们模仿人类和性别的偏见,甚至创造新的问题。

出于这些原因,特别令人担忧的是,包括加利福尼亚州,纽约州和威斯康星州在内的多个州使用算法来预测哪些人在被监禁后会再犯罪。更糟糕的是,它甚至似乎都没有用。

在该杂志周三发表的一篇论文中 科学进步 达特茅斯学院的一对计算机科学家发现,用于预测累犯的广泛使用的计算机程序并不比完全未经训练的平民更准确。该计划称为“替代性制裁的惩教罪犯管理概况”,分析了137个不同的因素,以确定一个人在释放后犯下另一罪行的可能性。 COMPAS考虑了物质使用,社会孤立等因素,以及犯罪学家理论化可能导致累犯的其他因素,将人们定为高,中,低风险。

当然,风险评估听起来很棒。为什么没有更多的数据来帮助法院确定谁是更大的风险?但达特茅斯计算机科学家Julia Dressel和Hany Farid发现的是,未经训练的人正确地判断出累犯风险与COMPAS的准确度大致相同,这表明算法的假设力量实际上并不存在。

在一项试验中,仅包括COMPAS使用的信息的一小部分(七个因素而不是137个,不包括种族),互联网上的一组人类志愿者,可能没有进行刑事风险评估培训,评估病例报告。他们正确估计了一个人的累犯率,准确率为67%,而COMPAS的准确率为65%。

花点时间让它沉入其中。网上未受过训练的人在预测一个人是否会回到监狱方面稍微好一点 而不是用于预测一个人是否会回到监狱的工具 。它变得更糟。一旦你加入被告的比赛,志愿者的假阳性和假阴性率只有COMPAS的几个百分点。因此,COMPAS不仅在预测累犯方面不那么出色,而且与人类一样容易出现种族偏见。对计算机的冷逻辑来说太过分了。

研究人员随后制作了一个线性模型,该模型将COMPAS的预测率与两个因素相匹配:年龄和之前的定罪数量。需要明确的是,这种预测也是不公平的,但它证明了COMPAS有多么缺陷。

虽然这项研究是新的,但它所支持的重要内容却并非如此。在2016年的调查中, ProPublica 记者发现,不仅COMPAS不可靠,它实际上对非洲裔美国人有系统性的偏见,一直将黑人评级为比犯下更严重罪行的白人更高的风险。希望这项新研究将有助于为刑事司法系统中的juster风险评估过程铺平道路。

COMPAS在最好情况下无用且在最坏情况下有很大偏见这一事实表明,基于计算机的风险评估可能会加深司法系统应该解决的不公正现象。由于风险评估分数可以应用于刑事司法程序的任何步骤,包括设定一个人的债券,确定他们是否获得假释,在某些州,甚至是确定一个人的判决,这项研究表明迫切需要重新审视COMPAS和其他程序的使用。

$config[ads_kvadrat] not found