您的位置:首页 >创业 >

商业人工智能节目显示了性别歧视和种族主义倾向:研究

一项研究发现,商业面部分析人工智能程序往往会显示皮肤类型和性别偏见。在实验中,三个商业程序在确定浅色皮肤男性性别方面的错误率从未超过0.8%。

然而,对于深色皮肤的女性来说,一个案例的错误率飙升至20%以上,另两个案例的错误率超过34%。这些发现提出了一个问题,即今天的神经网络是如何训练和评估的,这些神经网络通过在庞大的数据集中寻找模式来学习执行计算任务。例如,美国一家大型科技公司的研究人员声称,他们设计的人脸识别系统的准确率超过97%。

然而,用于评估其表现的数据集是77%以上的男性和83%以上的白人。美国麻省理工学院(MIT)的研究员乔伊·布兰维尼(Joy Buolamwini)说:“这里真正重要的是方法,以及这种方法如何适用于其他应用。”Buolamwini说:“同样的以数据为中心的技术,可以用来试图确定某人的性别,也可以用来在你寻找犯罪嫌疑人时识别一个人或解锁你的手机。”

“这不仅仅是计算机视觉。我真的希望这将刺激更多的工作来研究其他差异,“他说。研究人员调查的三个程序都是通用的面部分析系统,可以用来匹配不同照片中的面部,以及评估性别、年龄和情绪等特征。

这三个系统都将性别分类视为一个二元决定--男性或女性--这使得他们在这项任务上的表现特别容易进行统计评估。然而,同样类型的偏见可能也影响到该方案在其他任务上的表现。为了开始系统地调查这些程序的偏见,Buolamwini首先收集了一组图像,在这些图像中,女性和深色皮肤的人比通常用于评估人脸分析系统的数据集中表现得更好。最后一组包含了1200多张图像。

接下来,她与一名皮肤科医生合作,根据菲茨帕特里克肤色等级对图像进行编码,菲茨帕特里克肤色等级是一种从亮到暗的六分等级,最初由皮肤科医生开发,作为评估晒伤风险的一种手段。然后,她将主要技术公司的三个商业面部分析系统应用于她新构建的数据集。

在这三种情况下,女性在性别分类上的错误率始终高于男性,肤色较深的受试者比肤色较浅的受试者高。对于深色皮肤的女性,错误率分别为20.8%、34.5%和34.7。但在其中两个系统中,数据集中肤色最深的女性的错误率更高--46.5%和46.8%。本质上,对于这些女性来说,这个系统还不如一直在随机猜测性别。

相关推荐

猜你喜欢

特别关注

CoolSmartPhone播客 第52集 CoolSmartPhone