美国白宫科技政策办公室副首席技术官艾德·费尔登说,在人工智能的发展和进步方面,人类有两大责任。
他说,第一个是“使A.I.的好处。一个现实。“第二个:”以解决A.I.的风险。“
Felten在A.I.的纽约大学Skirball表演艺术中心与一屋子的人说话。现在 - 由白宫共同赞助的夏季系列讲座,旨在研究和讨论与A.I.的未来相关的关键问题。技术。
A.I.是在十字路口,A.I。现任联合主席Kate Crawford(微软研究院研究员)和Meredith Whittaker(谷歌开放研究的创始人兼负责人)指出。私营和公共部门需要共同努力,以创造某种可行的A.I.政策。但问题是,虽然科技公司正朝着推进制作A.I.的实际代码和架构迈出巨大的步伐。一个全能的力量,我们目前的政策结构已经过时,或者更糟糕的是,不存在。
太久了,A.I。被抛弃作为一个未来主义的概念,不适用于现代。但A.I.悄然表现为城市政策,筛选大量数据,以人力无法实现的方式向人们提供服务。 Felten引用了算法可以使用数据将人们链接到负担得起的住房,或者实施透明度以便公众可以访问有价值信息的方式。
这并不是说A.I.是完美的;它非常多 不 。在晚上的主要小组中,Latanya Sweeney,A.I。哈佛大学的研究员讨论了一个她称之为“我的计算机是种族主义者日”的故事。
一位采访斯威尼的记者通过谷歌搜索了她的名字,并发现她的名字出现在广告中,提供收集和分享刑事逮捕数据的网站。 Sweeney从未被捕过,她的名字甚至不是网站数据库的一部分 - 但她的名字在广告中突出显示。像每一位优秀的科学家一样,斯威尼凭借自己的亲身经历进行了一项研究,发现这些广告更有可能列出黑人的名字而不是白人。原因?谷歌提供的这些广告是一种算法的结果,它更加重视人们在广告出现时点击的内容。当黑名字被谷歌搜索时,更多人点击了这些广告。系统学习了这种模式,并开始以更高的频率提供这些广告。
这是A.I的承诺的有价值的教训:人类最终的动力技术,人类的种族主义行为可以影响设计和算法,是的,甚至是A.I.
Google可以轻松检测广告服务中的这些偏差并努力纠正它们。 “他们选择不这样做,”斯威尼争辩道。
一个更现代的政策框架能否迫使谷歌解决这个问题?也许。 2013年至2014年,Felten的前任Nicole Wong强调了许多人 - 包括A.I.研究人员自己 - 真正担心使用大数据的人和最终受影响的人之间的“权力不对称增长”,其中包括数据的主体,或受这些数据通知的决策影响的人。 。
这些担忧不仅限于私营部门。白宫国内政策委员会主席助理罗伊奥斯汀谈到了A.I.如何大大改善执法。 - 在平民的隐私方面,或者在权力和滥用方面造成巨大的影响。 “问题变成了'我们如何处理这些数据?'”他说。拥有数据是一回事,但有谁可以访问它?多长时间?谁可以访问它?同样,我们没有这些问题和不确定性的政策答案或解决方案 - 这是令人不安的,因为我们对未来越来越受A.I.控制。
关注的第三个支柱与A.I.的邪恶使用关系不大,而更多地与A.I.的关系有关。和自治系统正在取代人类从事工作。 Henry Siu,A.I。不列颠哥伦比亚大学的研究员讨论了“日常”职业(员工执行一系列非常具体的任务,几乎从不偏离惯例),以及这些职业损失如何最容易受到技术中断的影响。自动化在这些工作中创造了一种不和谐的缩小规模 - 而且它们并没有回归。
听起来像工业化的老故事,但它并不完全。虽然“这场革命可能已经在这里…… 它可能没有我们想象的那么奇特,”经济和技术政策总裁特别助理大卫埃德尔曼警告说。失业“不会一下子发生。”他和Siu都强调,解决方案是创造一种人们不会停止上学的教育环境,他们不断获得新的技能和专业,让他们适应 同 技术。
政策制定者可能会感到欣慰的是,美国并不是唯一一个解决这些问题的国家。但如果美国打算继续为A.I.领先,它必须在政策舞台上加强。
Google DeepMind的联合创始人Mustafa Suleyman讨论了A.I.的潜力。帮助医疗保健系统,让机器算法的医生诊断某些疾病和疾病 - 为人类腾出时间来提出治疗方法。对于英国的苏莱曼来说,在医院内建立这样的系统似乎并不是一个牵强附会的想法。然而,斯威尼指出,“在美国,你无法控制自己的数据” - 没有监管措施来确保信息不被滥用。这是一个 巨大 问题。
“我希望能够从技术的每一次成功中挤出一切,”斯威尼说。 “问题不在于技术方面;问题是我们与公共政策失去了联系。“