人工智能更难以识别来自低收入国家的家庭用品

当被要求识别来自低收入国家的物品时,科技公司(包括谷歌,微软和亚马逊)销售的物体识别算法表现更差。这些是Facebook的人工智能实验室进行的一项新研究的结果,该实验表明,人工智能偏见不仅可以在国家内部,而且在它们之间重现不平等。

低收入家庭的算法精确度降低了20%在这项研究中(我们通过Jack Clark的Import AI时事通讯发现),研究人员测试了五种流行的现成物体识别算法 - Microsoft Azure,Clarifai,Google Cloud Vision,Amazon Rekognition和IBM Watson - 以了解每个程序的效果如何从全球数据集中收集的已识别家庭用品。

该数据集包括117个类别(从鞋子到肥皂到沙发的所有内容)和各种各样的家庭收入和地理位置(从布隆迪的一个家庭每月27美元到乌克兰的一个家庭,每月收入10,090美元)。

研究人员发现,物体识别算法在被要求识别月收入50美元的家庭物品时的误差大约增加10%,而家庭的物品价值超过3,500美元。准确度的绝对差异甚至更大:与索马里和布基纳法索的物品相比,算法在识别美国物品方面的效果提高了15%至20%。

作者写道,这些发现“在一系列用于图像识别的商业云服务中是一致的”。

这种偏见是AI中众所周知的问题,并且有许多根本原因。其中最常见的是用于创建算法的训练数据通常反映了负责工程师的生活和背景。由于这些人通常来自高收入国家的白人,他们教导他们的计划识别的世界也是如此。

人工智能偏见的最着名的例子之一是面部识别算法,在识别女性面部特别是有色女性时,这些算法通常表现更差。这种偏见可以进入各种系统,从用于计算假释的算法到在即将到来的求职面试之前评估你的简历的算法。

在物体识别算法的情况下,本研究的作者说,有一些可能的原因导致错误:首先,用于创建系统的训练数据在地理上受到限制,其次,他们无法识别文化差异。

撰写作者的视觉算法培训数据主要来自欧洲和北美,并且“在人口众多的地理区域中严重欠采样[s]视觉场景,特别是在非洲,印度,中国和南方 - 东亚。”

偏差可能由多种因素引起,包括不完整的训练数据

同样,大多数图像数据集使用英语名词作为起点并相应地收集数据。这可能意味着缺少整个类别的项目,或者相同的项目在不同的国家/地区看起来不同。作者给出了洗碗皂的例子,这些香皂在一些国家是肥皂,在另一个国家是液体容器,婚礼在美国和印度看起来很不一样。

为什么这很重要?嗯,首先,这意味着使用这些算法创建的任何系统对来自低收入和非西方国家的人来说都会表现更差。由于美国科技公司是人工智能的全球领导者,这可能会影响从照片存储服务和图像搜索功能到更重要的系统,如自动安全摄像头和自动驾驶汽车。

但这可能只是冰山一角。视觉算法相对容易评估这些偏差,但是创建这些程序的管道也为整个行业提供了充分的算法,这些算法永远不会受到同样的审查。

“审计AI系统并不一定容易,因为没有执行此类审计的标准基准,”帮助开展此项研究的Facebook AI的研究科学家Laurens van der Maaten告诉The Verge。“在打击这种偏见方面,最重要的一步是在设置用于训练系统的训练数据的收集过程时更加谨慎。”

硅谷经常推广其产品 - 特别是近年来,它的人工智能产品 - 作为平等主义,所有人都可以使用。这样的研究表明,科技公司继续以自己的形象评估,定义和塑造世界。

免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。