当前位置: > 华宇总代理 > 正文 正文

Art项目揭示了人工智能训练模型中的偏见

 

 
一个为艺术项目收集人脸的网站引发了一场关于使用人工智能来给人类分类的争议。
 
在ImageNet轮盘网站上收集到的人脸正在被整合到米兰普拉达基金会的一件艺术品中,但这只是美国艺术家特雷弗·帕格伦和微软研究员凯特·克劳福德创建该网站的原因之一。
 
“ImageNet轮盘赌是今年早些时候推出的,它是一个更广泛的项目的一部分,目的是让人们注意到,当人工智能模型被训练在有问题的训练数据上时,可能会出错,而且经常会出错,”创建者写道。
 
他们解释说:“ImageNet轮盘是根据一个叫做ImageNet(2009年由普林斯顿大学和斯坦福大学开发)的数据集对‘人’分类进行训练的,这是机器学习研究和开发中最广泛使用的训练集之一。”
 
“我们创造了ImageNet轮盘赌作为一种挑衅:它作为一扇窗口,让人们了解ImageNet中嵌入的一些种族主义、厌女症、残忍和荒谬的分类,”他们继续说。“它让培训集‘不言自明’,这样做,突出了为什么以这种方式对人进行分类,往好了说是不科学的,往坏了说是极其有害的。”
 
种族歧视的轮盘赌
 
ImageNet轮盘允许你上传一张人脸的照片,它会返回一个分类。我上传了我的葡萄牙裔美国人头像,并收到了分类“心理语言学家”。对于其他使用它的人来说,这个网站就不那么友好了。
 
24岁的塔邦·基马(Tabong Kima)是一名非裔美国人,《纽约时报》在一篇有关该网站的文章中提到了他,他被贴上了“犯错者”和“冒犯者”的标签。
 
《卫报》(The Guardian)记者、亚裔美国人朱莉·凯丽·王(Julie Carrie Wong)被评为“怪人,斜眼人”。
 
“ImageNet轮盘已经令人难以置信的强大的显示我们融入我们的日常生活的人工智能是根本性的缺陷和有限的人类决定进入它,”阿尔伯特·福克斯卡恩说,监视技术监督项目的执行董事(停止)在纽约市,一个游说团体寻求结束歧视性的监测。
 
“这就是为什么我们发现市场上的每一个视觉识别程序都存在种族偏见和错误率,这对男性和女性来说是不同的,”他告诉TechNewsWorld。
 
“没有一个系统是完全客观的,”卡恩补充道。“无论我们如何设置这些工具,华宇代理人类对这些工具的偏见和假设都会影响我们所获得的结果。”
 
车库汽车推理
 
位于华盛顿特区的信息技术与创新基金会(Information Technology & Innovation Foundation)下属的数据创新中心(Center for Data Innovation)的高级政策分析师约书亚·纽(Joshua New)表示,ImageNet Roulette已经就人工智能提出了自己的观点
 
他告诉《科技新闻世界》(TechNewsWorld):“它的有用之处在于,它表明人工智能并非许多公司在营销时都犯过的那种万无一失的神奇秘密武器。”
 
“与此同时,它提出了一个重要的问题,即如果你有不负责地使用的糟糕数据,你将得到糟糕的结果,”纽说。
 
它使用的训练数据集是出了名的满是靠不住的标签,其中一些标签极端、无礼,还包含种族和性别偏见,这令人担忧。但这并不意味着所有的人工智能系统都会出现这些问题,”他指出。
 
“如果一家公司关心消除偏见和采取负责任的行动,他们就会采取行动。一个不关心对抗偏见的糟糕演员会表现出偏见,不管他们是否在使用人工智能。”
“人工智能可以不负责任地进行。它确实发生,这个工具很好地凸显,但指这是为什么我们不应该使用人工智能的一个例子是类似于指着车有人在他们的车库里没有安全带,刹车和气囊和说,这是不安全的,所以每个人都不应该开车。”
 
更好的数据,更好的人工智能
 
为了消除数据集中的偏差,通常提供的一种补救方法是增加数据集的大小。其思想是,集合中的数据越多,省略某些内容的概率就越低。不过,位于佛罗里达州科拉角(Cape Coral)的人脸认证公司Sensible Vision的首席执行官乔治•布罗斯托夫(George Brostoff)指出,解决方案要复杂得多,尤其是在人脸识别方面。
 
“当面部识别看到一张照片时,你必须考虑到照片的质量。它有足够的分辨率吗?有足够的细节吗?里面有噪音吗?所有这些因素都和拥有大量图片一样重要。
 
“有了更好的数据,人工智能将变得更好,”Brostoff补充道。“它总是能够做出正确的决定吗?”不,因为数据并不总是完美的。”
 
“政府监督项目”(Project on Government Oversight)的高级法律顾问杰克·拉普鲁克(Jake Laperruque)说,改进数据集有助于减少偏见,但提高透明度也会有所帮助。“政府监督项目”是位于华盛顿特区的政府监督组织“宪法项目”(Constitution Project)的一部分
 
“你不能开源谷歌的算法,但另一方面,重要的是找到一些独立透明的方法,”他告诉TechNewsWorld。“这对面部识别来说比算法之类的东西更容易。”
 
STOP的卡恩指出,国会正在努力提高人工智能的透明度。例如,众议院有一项法案,要求在刑事司法系统中使用人工智能系统时,取消商业秘密保护。
 
“如果某人的生命或自由将会因为这些人工智能工具之一而被剥夺,那么他们的辩护律师应该知道它是如何运作的,”他说。“这应该胜过任何对商业机密的担忧。”
 
执法模式
 
消除执法模式中的偏见可能是一个特别棘手的问题。
 
为了消除执法人工智能模型中的所有偏差,您需要一个无偏差的历史数据集,所有模型必须使用相同的数据。总部位于纽约牡蛎湾(Oyster Bay)的科技咨询公司ABI Research的首席人工智能分析师苏廉(Lian Jye Su,音)说,这两个条件都很难满足。
 
她告诉《科技新闻世界》(TechNewsWorld),要获得一个没有偏见的数据集,你需要百分之百确定所有过去的执法记录都没有歧视和偏见,这是不可能的。
 
苏告诉《科技新闻世界》:“即使我们试图通过不包括已知和据称的案例来消除所有偏见,导致这种情绪的内在社会经济因素目前对人工智能来说也是不可理解的。”
 
她说,以一家银行为例,这家银行一直在利用人工智能根据申请人的背景放贷。为了避免歧视,数据集中删除了种族信息,但该模型仍被发现对非裔美国申请人有偏见。
 
苏说,科学家们发现,人工智能使用地址作为贷款的决定因素。这对来自贫困社区但不一定是穷人的申请者产生了明显的偏见。
 
她指出:“作为人类,我们可以很快识别出这一点,但人工智能无法理解。”
 
训练一个使用相同数据的执法模型也很有挑战性。
 
“这在逻辑上几乎是不可能的。即使执法机构找到一种方法来共享汇总的培训数据,也有许多针对国家的规定和社会经济背景,”苏指出。
 
“作为人类,我们对普世价值和道德准则有着共同的理解,而人工智能却没有相同的理解。培训数据的微小差异将导致非常不同的决策过程,这意味着我们最终将采取无法解释的行动,”她补充道。
 
苏建议:“解决这个问题的方法之一是拥有完全透明和可解释的人工智能。”“许多人工智能初创公司正在朝着这个愿景努力,但我个人认为,我们离这个目标还很远。”
 
由ImageNet轮盘赌引起的骚动似乎对ImageNet背后的研究人员产生了影响。几天前,华宇代理他们决定清除150万张个人类图片的数据集。
 
与此同时,ImageNet轮盘赌的创建者表示,他们已经证明了自己的观点,将于周五关闭该网站。不过,艺术展将在2020年2月之前一直在米兰展出。
 

版权保护: 本文由 原创,转载请保留链接: http://www.allart.com.cn//cms/2019/1015/289.html

相关文章