人工智能:如何避免种族主义算法

2017-04-16 08:35:53

越来越多的关注,许多对我们的生活做出决定的算法 - 从我们在互联网上看到的,我们成为受害者或煽动者的可能性 - 都对不包括不同人群的数据集进行了培训。

结果可能是决策变得固有偏见,尽管意外。

尝试使用任何搜索引擎在线搜索“手”或“婴儿”的图像,您可能会发现大部分是白色的结果。

QQͼƬ20170416083148.png

2015年,平面设计师约翰娜·布赖(Johanna Burai)在搜索了人类手中的图像,并在Google的顶级图像搜索结果中专门寻找白手,创建了世界白网项目。

她的网站提供“替代”的手图片,内容创作者可以在线使用,并由搜索引擎抓取。

Google表示,其图像搜索结果“反映了网络上的内容,包括图像类型出现的频率及其在线描述的方式,并没有连接到其”值“。

不再担任网站的Burai女士认为事情有所改善。

她说:“我觉得越来越好了,人们看到这个问题。

“当我开始这个项目时,人们很震惊,现在有更多的意识。”

如果您在Google中输入“手”,则会显示

图片说明

...和白手。

QQͼƬ20170416083328.png

该算法正义联盟(AJL)是由乔伊·布拉米尼,在麻省理工学院当研究生于2016年11月发起。

她正在尝试使用面部识别软件进行项目,但无法处理她的脸部--Bolamamwini女士皮肤黑暗。

“我发现戴着白色的面具,因为我皮肤很黑,使系统更容易工作,”她说。

“这是减少一个模型,一台电脑可以更容易阅读的面孔。”

这不是她第一次遇到这个问题。

五年前,她不得不问一个较浅皮肤的房间来帮助她。

她说:“我感到很混乱,我感到很沮丧,因为这是五年前所见到的问题。

“我很高兴白面具工作得很好。”

QQͼƬ20170416083413.png

图片说明

Joy Buolamwini发现她的电脑系统认出了白色面具,但不是她的脸。

Buolamwini女士将AJL的反应描述为“非常强烈”。

这些范围从想要向学生展示她的工作的教师,研究人员希望她检查自己的算法的偏见,给报告自己的经验的人。

而且似乎还有不少。

一位研究人员想检查一个正在建立的识别皮肤黑素瘤(皮肤癌)的算法会在黑皮肤上起作用。

“我现在开始考虑,我们正在测试,以确保这些系统适用于在技术领域不太好的老年人?” Buolamwini女士说。

“我们还希望确保这些系统适用于可能超重的人,因为有些人报告过,肯定是和谐的。”

多种数据

Buolamwini女士认为情况的出现部分是由于技术行业本身存在缺乏多样性的明显缺陷。

科技巨头每年都会发布多元化报告,并使阅读更加严峻。

Google最新数据(2016年1月)表明,其技术人员中有19%是女性,只有1%是黑人。

在微软2016年9月, 17.5%的技术人员是女性,2.7%是黑人或非裔美国人。

在2016年6月的Facebook,其美国技术人员为17%,黑人为1%。

你得到的图片。但是与算法有什么关系呢?

Joy Buolamwini认为:“如果你测试你的系统对于看起来像你的人,它的工作正常,那么你永远不会知道有问题。

偏爱的美

去年,通过算法判断的44场获奖者中,有来自100个不同国家的6,000多个上传的自助餐,仅有一个是非白人,少数是亚洲人。

Alex Zhavoronkov,Beauty.AI的首席科学官员告诉卫报,结果是有缺陷的,因为用于训练AI(人工智能)的数据集并不够多样化。

他说:“如果你在数据集中没有那么多颜色的人,那么你可能会有偏倚的结果,”他当时说。

在一个更严重的是,在美国使用人工智能软件来预测哪些罪犯可能再犯,被认为是更有可能错误地识别黑色罪犯为高风险和白色违者为低风险,根据网站Propublica研究(软件公司对这些发现提出异议)。

犹他州计算学院的副教授Suresh Venkatasubramanian表示,AI的创造者需要在问题仍然可见的同时采取行动。

他说:“可能发生的最糟糕的事情是事情会改变,我们不会意识到。”

“换句话说,担心的是,决策中的偏见或偏差将从我们认为是人类偏见的事情转变为我们不再承认的事物,因此无法检测到 - 因为我们将决策视为理所当然的。 “

QQͼƬ20170416083520.png

我们不小心编程有偏见的机器人吗?

然而,他对技术进步乐观。

他说:“说所有的算法都有种族主义的表现,对我来说没有意义。”

“不是因为这是不可能的,而是因为这不是它的实际工作。

他补充说:“在过去的三到四年中,所涉及的问题是解决问题和可能的解决方案。

他提供了一些这些:

创建更好和更多样化的数据集,用于训练算法(他们通过处理数千个例如图像来学习)

分享软件厂商的最佳实践,

构建算法,解释他们的决策,以便可以理解任何偏见。

Buolamwini女士说,她希望如果人们更加意识到潜在的问题,情况将会改善。

她表示:“我们创造的任何技术都将体现我们的愿望和限制。”

“如果我们在包容性方面受到限制,这将被反映在我们开发的机器人或机器人内部的技术中。”


收藏 举报

延伸 · 阅读