当前位置:首页 >小故事>

上海交大教授回应看脸识罪犯质疑

来源:www.timetimetime.net 时间:2020-03-19 编辑:散文精选

作者:俞韩琦王欣欣来源:澎湃新闻发布时间:2017/5/10 9:05336036026

choose font size:萧中

da

上海交通大学教授回复“看到罪犯有脸”的查询,“通过机器学习,分类器可以更可靠地区分罪犯和非罪犯的照片。罪犯内眦之间的距离平均比普通人短5.6%,上唇弯曲23.4%,鼻唇角小19.6%。”去年11月上传到预印网站arXiv的一篇论文中的研究结论让学术界和媒体立即“炒了锅”。

许多人既惊讶又怀疑。这是人工智能时代的《少数派报告》预告片吗?电影《少数派报告》改编自菲利普迪克的短篇小说,讲述了2054年华盛顿特区的故事。司法部有三个“先知”,他们可以预测犯罪意图,并在犯罪发生前逮捕和判刑罪犯。

吴晓琳,论文作者,上海交通大学图像通信与网络工程学院教授,在过去的六个月里收到了无数的质疑或批评邮件。最近,他遇到了三位美国学者,他们以书写万字的形式在远处大喊大叫。

这篇10,000字的文章名为《相面术的新外衣》(面相学的新衣服),于当地时间5月6日在新媒体网站媒体上发表。这三位作者布莱斯阿圭拉阿卡斯(Blaise Agera y Arcas)是机器学习领域的知名工程师,于2013年从微软转到谷歌。玛格丽特米歇尔也是谷歌人工智能研究员。亚历山大托多洛夫是普林斯顿大学的神经科学教授。

六个月后,三位美国学者评论道:“随着人工智能和机器学习的迅速发展,我们迎来了一个科学种族主义的新时代。”“基于面部特征的深度学习永远不应该被用作‘加速’司法公正的工具。如果真的这样做了,这将延续不公正。”文章就这样结束了。

纳粹“种族科学家”正在做面部测量。

5月9日,吴晓琳对汹涌而来的新闻做出回应:“这三位美国作家忽略了我们在原文中重复的陈述。我们对社会科学没有兴趣或学术背景来解释我们的结果和讨论原因。没有建议将其用于执法和司法。他们把这些想法强加给我们。”

“就价值观而言,我们和这篇文章的作者没有什么不同。他们歪曲了我们的初衷,为自己找到了一个假想的敌人。”吴晓琳强调道。

“研究“看脸识别罪犯”是没有实际可能性的。”这篇有争议的论文题为《基于面部图像的自动犯罪概率推断》(自动影响使用脸定罪)。在实验中,吴晓林和他的博士生张西挑选了1856张中国成年男子的面部照片,其中730张是被定罪罪犯的身份证照片(330张来自网上通缉令,400张是由签署保密协议的警察局提供的),其余1126张是网上抓获的普通人的照片。经过机器学习,该算法能够识别出可疑人物,准确率为87%。照片样本

在论文的引言部分,吴晓林和张西指出:“在本文中,我们无意或没有资格讨论社会偏见。我们只是好奇完全自动的有罪推定有多准确。起初,我们的直觉是,机器学习和计算机视觉会颠覆地貌,但结果恰恰相反。”

然而,论文中87%的准确率仅在学术水平上显着相关。一方面,这并不能解释任何因果关系,也就是说,外表是否决定了固有的犯罪性质,或者人类社会中对外表的歧视是否导致了犯罪概率的差异,这就留给了社会科学的解释。另一方面,这些数据也没有应用的可能。舆论密切关注他的研究的实用性,甚至有网友建议他把研究交给纪律委员会,这让吴晓琳感到苦恼和“徘徊”。

这是因为,根据中国千分之几的犯罪率的背景条件,如果在实践中使用,实验中87%的真实阳性率将会非常低。此外,这项研究本身也有许多悬而未决的问题。例如,实验的样本量不够大,容易导致机器学习过度。

罪犯内眦之间的距离平均比普通人短5.6%,上唇弯曲23.4%,鼻唇角小19.6%。

虽然吴晓琳团队的研究成果无意且无法应用于实际应用,但最近在人工智能领域也有类似应用的迹象。面部识别引发的道德诉讼绝非没有分号。这一次,站在政治正确性的制高点上的布莱斯阿居拉阿卡斯和亚历山大托多洛夫的谷歌遭遇了重大挫折。

被公认为“大猩猩”的黑人

2015年,谷歌推出了相册应用程序谷歌照片。该应用程序不仅备份和组织照片,而且自动标记照片,以便用户可以快速找到它们。

然而,正是这种基于图像识别技术的自动标记功能制造了麻烦。纽约的黑人程序员Jacky Alcine惊讶地发现,他和黑人朋友的自拍被谷歌照片贴上了“大猩猩”的标签。他在推特上发布了截图,谷歌立即道歉,暂时将“大猩猩”标签从系统中移除,并以最高优先级解决了问题。

黑色自拍被谷歌照片贴上“大猩猩”的标签

相关技术人员指出,谷歌可能没有为机器提供足够的大猩猩照片来了解差异。然而,其他网民安慰阿尔辛说,他们的照片也被识别为“猫”或“马”。

以色列初创企业“与恐怖分子面对面”

有人可能会说,黑色照片被贴上“大猩猩”标签的事件不应该被解读得太多,就像日本照片被贴上“猫”标签一样,这只是谷歌开的一个玩笑。但是,如果司法和国土安全系统也提到这些可能出错的系统,这还是一个笑话吗?正如三位美国作家在长篇文章中指出的那样,吴晓琳研究中最可怕的一点是将“算法”和“法律”这两个看似客观和权威的东西结合起来。

2016年夏天,密歇根一家名为诺斯波特的公司被推到了公众舆论的前沿。美国各地的法院都在使用该公司的人工智能产品COMPAS来评估嫌疑人再次犯罪的可能性。法庭在作出判决或保释决定时,会参考康柏公司的评估意见。

COMPAS的评估系统根据100多个因素,包括年龄、性别、犯罪历史等,给嫌疑人打分,从1分到10分不等。分数越高,就越危险,但是种族不包括在内。然而,非营利非政府新闻网站ProPublica指出,黑人比白人更有可能在没有实际犯下重复罪行的嫌疑人身上获得高分。因此,ProPublica指责COMPAS是一个嵌入种族歧视的人工智能系统,不应再作为法院的参考。

COMPAS预测重复犯罪的概率

《华盛顿邮报》写道,如果COMPAS算法根据公司自己的定义是“公平的”,即得分相同的黑人或白人嫌疑人被赋予相同的重复犯罪概率,那么ProPublica衡量的偏差的实际原因是黑人嫌疑人的总体重复犯罪率确实更高。

Blaise Agü era y Arcas等人也在文章中点名批评了一家以色列初创企业Faception。根据《华盛顿邮报》,该公司与国土安全局签署了一份合同,以帮助识别恐怖分子。Faception声称,他们开发的系统可以通过人脸分析识别恐怖分子,成功率超过80%,并且可以成功识别2015年11月巴黎恐怖袭击中11名嫌疑人中的8名。

Faception Recognition Face

facception首席执行官夏伊吉波亚对媒体表示:“我们的个性是由脱氧核糖核酸决定的,也将反映在脸上。这是一个信号。使用先进的机器学习技术,我们开发了15个分类标准,每个标准代表一个人格,是个人特征和行为的集合。我们的算法可以为每个人打分这些个性的契合度。”

除了恐怖分子,Faception声称他们的算法也可以用来识别恋童癖者和白领罪犯。

歧视的不是算法,而是人类的偏见。

基于美国特殊的历史和文化,种族一直很容易激起敏感的神经。然而,在上述谷歌人脸识别BUG和COMPAS案例解决系统中,媒体特别关注黑人这一“少数群体”遭受不平等的算法。布莱斯阿居拉阿卡斯(Blaise Agera y Arcas)等人在文章中也一再强调,看似客观公正的算法不应该被用来“洗刷”对人类的歧视。

事实上,近年来越来越多的学者开始意识到该算法并不客观。巴斯大学的乔安娜布赖森(Joanna Bryson)教授在上个月发表在杂志《科学》上的一项研究中指出,人工智能还显示出各种偏见和歧视,如种族、性别、年龄等。乔安娜布莱森(Joanna Bryson)说,“人们会说实验表明人工智能是歧视性的。不,这实际上表明我们人类有歧视,并且已经被人工智能学会了。”

吴晓琳还告诉澎湃新闻(当我们说机器做出判断时,没有偏见,当然,我们假设数据的标记是公平的。机器无法纠正输入数据标记中的人为错误。“

人类偏见将被人工智能作为数据“学习”,这在聊天机器人中得到充分反映。2016年3月,微软的聊天机器人Tay(萧冰的美国姐妹版本)在推特上上线,并开始与任何

她的推特用户聊天。在短短的24小时后,一个甜美而有礼貌的“小女孩”开始骂人,甚至说了许多种族主义和性别歧视的话。被网民迅速训练的“人工智能希特勒”震惊了网民,被微软匆忙锁在“小黑屋”里。

Tay

研究人员中另一部分被“教得不好”的人指出,像黑人这样的“少数群体”可能遭受不平等算法的主要原因是在训练数据集中代表这些“少数群体”的样本太少,所以该算法不够成熟,不足以训练这部分人口,并且经常得出不准确的结论。许多算法开发人员自己并没有意识到这一点。

机器人认为白人更漂亮?

吴晓林告诉澎湃新闻(他听到学术界有一种说法,关于人工智能伦理的会议比关于人工智能本身的会议多。

由于犯罪概率的研究压力很大,吴晓琳将继续探索计算机视觉在模拟人类感知方面的潜力,但将把研究课题转向其他方向。他的研究在那篇论文之后上传到arXiv,题目是“攻击性女性面孔对社会心理影响的自动影响”(《自动推断有吸引力的女性面孔造成的社会心理学印象》)。

这项研究检验了计算机视觉学习人类美学的能力。实验结果表明,训练后的算法能够很好地区分热辣美女和可爱美女,其美感与中国高校男生非常接近。

“我们必须认识到这一点,也就是说,人工智能具有这种潜力,人工智能已经到了这一步。”吴晓琳说道。

然而,他在美国社会的计算机“美学”研究也可能面临一些困难。2016年,包括英伟达和微软支持的青年实验室在内的多家组织联合举办了首届国际选美大赛(人工智能的国际选美大赛)。世界各地的用户只需在相关应用程序上上传自己的自拍,机器人评委将根据面部对称性、皱纹等因素选择最美丽的获奖组。令人尴尬的是,在来自100多个国家的近6000张自拍中,机器人裁判选出的44位最漂亮的获胜者几乎都是白人,只有少数亚洲人,只有一位皮肤黝黑。

"机器人不喜欢深色皮肤。"当时,许多新闻报道都以此为标题。

阅读更多

谷歌研究人员质疑上海交通大学教授的面孔识别罪犯的观点

上海交通大学教授回应争议:观看面孔识别罪犯是无稽之谈

特别声明:转载本文只是为了传播信息,并不意味着代表本网站的观点或确认其内容的真实性;如果其他媒体、网站或个人转载本网站,他们必须保留本网站上注明的“来源”,并承担版权等法律责任。如果作者不希望再版或联系再版费,请联系我们。

相关文章
热门标签
日期归档

版权所有© 阅读时间 | 备案: 鄂ICP备12015973号-1 | www.timetimetime.net . All Rights Reserved | 网站地图