苹果iPhone X无法分辨中国面孔,退款给予

$config[ads_kvadrat] not found

Первое видео iPhone 12 | Мозговые Чипы Илона Маска готовы | Летающие машины-дроны и другие новости!

Первое видео iPhone 12 | Мозговые Чипы Илона Маска готовы | Летающие машины-дроны и другие новости!
Anonim

上周,在中国东部的一个主要城市南京,一位名叫严的女士曾两次向苹果公司退款,因为她的错误iPhoneX,她的同事使用面部识别技术解锁了。这两位女性都是中国人。

Yan告诉当地新闻,这是第一次发生这种情况,她打电话给iPhone热线,但他们不相信她。直到她和她的同事去当地一家苹果商店并向商店的工作人员展示他们给她退款并购买了一部新手机,并认为这可能是一个错误的相机。

但是第二部手机出现了同样的问题,这表明这不是一个有缺陷的相机,正如商店的工人所说的那样,但是软件本身也存在问题。

这不是面部识别软件及其背后的AI难以识别非白色面部的第一种情况。

2015年,谷歌照片意外地将两名非洲裔美国人的照片标记为大猩猩,而在2009年,惠普电脑 http://www.youtube.com/watch?v=t4DT3tQqgRM)难以识别和跟踪黑脸 - 但是白脸没问题。同年,尼康的相机软件被误认为是亚洲人脸上的眨眼。

谷歌照片,你们都搞砸了。我的朋友不是大猩猩。 pic.twitter.com/SMkMCsNVX4

- Jacky(@jackyalcine)2015年6月29日

“这基本上是一个数据问题,”微软首席研究员,奥巴马白宫社会研讨会和A.I.联合主席凯特克劳福德写道。 “算法通过提供某些图像来学习,通常由工程师选择,系统根据这些图像构建世界模型。如果一个系统接受了绝大部分白人照片的培训,那么识别非白人面孔将会更加困难。“

总部位于布鲁克林的程序员Jacky Alcine表示赞同,他的照片被谷歌贴错了。在他的经历中,他说:“通过对黑人进行准确和更完整的分类,可以避免这种情况。”

但是编入人工智能的种族主义,即使是无意识的,也具有超越面部识别的含义。

2016年ProPublica调查发现,黑人罪犯的可能性是其两倍 被标记为可能比白人犯罪者重新犯罪,而“预测性警务”的增长趋势使用算法预测犯罪并相应地指导警察资源。

然而,少数族裔社区历来过度监管,导致“这种软件有可能使已经存在的恶性循环长期存在,”克劳福德说。

回到中国南京,Yan第二次获得iPhoneX的第二笔退款。根据当地新闻报道,目前尚不清楚她是否购买了第三个。

这次的利害关系可能只是一个消费者。但Yan的案例是技术行业继续需要考虑多样性和包容性的一个例子。

$config[ads_kvadrat] not found