首页 国际新闻 正文

研究: ai在识别低收入国家的家庭用品上表现不好-必威体育 betway_必威体育 betway官网|首页

据measure外媒报导,包含谷歌、微柔和亚马逊在内的数家科技巨子公司都在出售它们的物体辨认算法,但是当这些算法在面临来自低收入国家的物品时其所作出的体现却不尽善尽美。这是Facebook AI实验室研讨: ai在辨认低收入国家的家庭用品上体现欠好-必威体育 betway_必威体育 betway官网|主页 进行的一项新研讨得出的定论。该研深圳有什么好玩的当地究标明,AI成见不只会显现一个国家内部的不平等,也会显现重现国家之间的不平等。

在这项研讨中,研讨人员对眼下重案追凶by百炼成猫五种抢手的现成目标辨认算法--微软Azure、咱们成婚了20140111Clarifai、谷歌Cloud Vision、亚马逊Rek沙漠鱼ognition和IBM Watson进行了研讨,以此来了解每个体系对来自全球数据集的家庭物品的辨认才能。

据悉,数据集包含了117个类别--从鞋子到番笕再到沙发等等--和一系列不同的蒜苔炒肉的做法家庭收入和地舆位置--从研讨: ai在辨认低收入国家的家庭用品上体现欠好-必威体育 betway_必威体育 betway官网|主页 月收入27美元的布隆迪的家庭到月收入1090美元的乌克兰的家庭等。

研讨人员发现,与月收入超越3500美元克拉霉素分散片的家庭比较,当被要求辨认月收入只要50美元的家庭的物品时,物体辨认算法的出错率要高出10%左右。在准确性上的肯定差异乃至更大:与索马里和布基纳法索的物品比较,这些算法在辨认来自美国的物品上要高出15%至20%。

研讨人员在陈述中指出,这些发现在一系列用于图画辨认的商业云服务中的体现是共同的。

千百擼

实际上,这种成见在AI中是一个众所周知的问题,它有着许多的根本原因。其间最常见研讨: ai在辨认低收入国家的家庭用品上体现欠好-必威体育 betway_必威体育 betway官网|主页 的一种就妖孽师父醉倾城是,用于创立8p算法的练习数据往往反映了相关工程师的日子和布景。因为这些人通常是来自高收入国家的白人男性,所以他们教授的课程所要辨认的东西天然也都是来自这些高收入研讨: ai在辨认低收入国家的家庭用品上体现欠好-必威体育 betway_必威体育 betway官网|主页 的国家。

AI成见最闻名的比如之一便是面部辨认算法,这种算法在辨认女人面孔时体现更差,特别是在面临有色人种研讨: ai在辨认低收入国家的家庭用品上体现欠好-必威体育 betway_必威体育 betway官网|主页 女人的时分。

在目标辨认算法的比如中,研讨作者指出,有几个或许的过错原因:榜首,用于创立体系的练习数据建行客服电话受地舆约束;第二,它们无法辨认文化差异。

相同的有氧运动和无氧运动的差异,大多数图画数据集都是运用英语名词作为起点,并打开相对应的数据搜集。这或许意味着整个类别的物品男装品牌在体系消失不见,或小桥流水人家相同的物品在不同的国家实际上代表着两种不同的东西。作者以di刘东强在美sh soap为例,在一些国家,dish so拜新同研讨: ai在辨认低收入国家的家庭用品上体现欠好-必威体育 betway_必威体育 betway官网|主页 ap是一种番笕,而在另一些国家,临产dish soap是一种液体容器。

而这或许仅仅冰山一角。尽管视觉算法是能相对简单评价出这骚狗些成见,但创立这些研讨: ai在辨认低收入国家的家庭用品上体现欠好-必威体育 betway_必威体育 betway官网|主页 程序的途径一起也在为整个职业供给算法,而这些算法永久不会遭到相同的检查。

尽管硅谷常常把自己的产品尤其是近年来的AI糖醋排骨做法产品宣扬为人人平等、人人可得,但是相似的研讨却显现,科技公司则是在按照自己的形象评价、界说和刻画国际。

声明:该文观念仅代表作者自己,搜狐号系信息发布渠道,搜狐仅供给信息存储空间服务。

相关推荐

  • 暂无相关文章