奥巴马竟被「去马赛克AI」洗白,CVPR新研究惹上种族歧视大麻烦,LeCun也被卷入其中

AI资讯1年前 (2023)发布 AI工具箱
261 0 0

还记那只被众网友玩坏的「最强马赛克修复AI」PLUSE吗?

前两天我们报道了杜克大学发布在CVPR 2020的这项成果,还放出了一大波效果实测。

其中一张奥观海同志复原图引起了读者SilverCasque的注意:

他留言说「还原的全是白人的脸,黑拳警告」。

没想到这位读者神预测,现在,PLUSE果然因此惹出了大麻烦。

就连深度学习巨头LeCun出来为这项技术辩解,也被国外网友和同行炮轰。

PLUSE:不允许你不白

PLUSE一经推出就引起了极大的关注,但是,网友实际使用PLUSE,却发现了一个很严重的问题:PLUSE无法准确还原有色人种图像。

如果只是还原失败,弄出一个不人不鬼的东西,最多只是技术问题。

但麻烦的是,PLUSE不仅还原出了完整的人脸,还是一张五官端正漂亮的白人脸。

这在如今高喊「黑命贵」的美国,无疑是一股扎眼的“逆流”。

有网友就拿奥巴马的低像素照片反复测试,结果无一不是白人男性,更加坐实了PLUSE的罪名。

随后,知名机器学习博主Robert Osazuwa Ness拿不同有色人种的低像素照片去测试,这其中有他自己、有美国著名国会议员Alexandria-Ocasio Cortez,和华裔女星刘玉玲。

看到模特皮肤不够白,PLUSE还十分执着地给他安上了一头金发…….真的是「不允许你不白」。

Alexandria-Ocasio Cortez是美国有史以来最年轻的国会议员,拉丁裔,也被强行洗成白人。

对于亚裔,PLUSE更不客气,你甚至看不出一点人物原本真实的特征。

比如博主Robert Osazuwa Ness自己的妻子:

华裔女星刘玉玲:

总之,在外国网友的测试中,PLUSE无一例外的把少数族裔强行洗白,似乎在有意纠正人们的肤色和五官特征。

网友对此反映自然很激烈,有人认为这是一种带有种族歧视的、非常危险的技术;

这一种观点引起了较多共鸣,还有人紧跟着晒出了其他「种族偏见」的AI算法,比如这位一个将照片变成文艺复兴风格的算法也将别人强行洗白:

有人干脆给PLUSE起了个新外号:「白人雷达」

但是也有一部分网友认为,算法本身是没有所谓「种族歧视」的,问题出在了用来训练算法的数据集上。

PLUSE的核心StyleGan是在FFHQ上训练的,有网友认为尽管它的人种多样性好于严重偏向白人的CELEB-A,但仍然不够。

有网友截取了一部分FFHQ的人脸数据集:

确实够白的……但有人同时指出,除了数据集的偏差,还有一种可能是模型的崩溃失效,算法“偷懒”,仅仅把人像漂白,而不是为不同种族和面部特征建模。

但也有人认为,即使用相同数据集训练StyleGan也能生成非白人结果,问题还是出在算法上。

网友对PLUSE的口诛笔伐目前还没有得到论文原作者的回应。

但另一位机器学习元老却首先发声了。

LeCun也中枪,到底冤不冤?

深度学习巨头LeCun对于网友对PLUSE几乎一边倒的抨击进行了回应:

他认为,机器学习系统带有偏见是因为数据带有偏见。假如在塞内加尔采集的数据上训练,输出肯定都是黑人。

随后他还补充道,相比于这种纯学术论文,这个问题应该是工程师更加关注的,实际部署中这种偏见会有严重的后果,盯着几个学者讨伐没有什么意义。

此话一出,顿时引起了同行的炮轰,外媒报道,一个可问责AI研究者Deborah Raji控诉LeCun:

对LeCun的言论十分震惊,这反应出了行业领军人物的麻木不仁(lack of awearness)。不明白像LeCun这样处在如此关键位置的人,为什么会认为学术研究对工程部署没有影响。社会的偏见不可能靠一个「正确」的数据集去解决。

LeCun对这样的指责颇有些无奈,他对外媒说:

我从来没说过学术研究无法在应用中确立规范。我之前也在Facebook建立领导过致力于AI技术公平性的工作组。

其实,稍聪明的读者都能明白,LeCun的意思是说,论文只是提供了解决问题的思路,实际应用中的问题复杂的多,这才是应该关注的。

借由一篇论文的结果炮轰研究人员,以此标榜自己的政治正确、贩卖观点,这一点是LeCun不愿意看到的。

技术本身是无罪的,国外炮轰PLUSE这一事件超出了技术本身,甚至也早就超出了科学伦理的范围,这大概就是美利坚特色科研吧。

你怎么看?

参考链接

https://www.theverge.com/21298762/face-depixelizer-ai-machine-learning-tool-pulse-stylegan-obama-bias

© 版权声明

相关文章

暂无评论

暂无评论...