推特“头像裁剪”算法更爱“白幼瘦”!瑞士小哥用StyleGAN2识破算法癖好,登顶悬赏赛
如今,社交媒体当道。
相信不少人在首次注册社交媒体时,平台都会要你上传一张照片当做头像。
有人会选择喜欢的明星,也有人会用自己的真实照片。
但这都不是最关键的,可能你没有发现,在上传头像照片时,平台对某些照片存在不同程度的偏好。
比如,某些平台内置的算法会偏爱肤色较浅、纹理较光滑且没有戴眼镜的照片,或者是更年轻的面孔:
而这已经在推特得到了证实。
根据国外多家媒体报道,推特的照片裁剪算法存在较大的漏洞,算法在预览和聚焦不同照片中的“亮点”时,对肤色、胖瘦、性别和年龄有不同的优先级。
也就是说,算法会更偏好“肤色更浅、更苗条、更年轻”的面孔,而不是“肤色更深、脸型更宽、年纪更大”的面孔。
对此,有网友指出,如此看来,算法也称得上是某种极端主义者了。
用StyleGAN2拆解推特算法的偏好
这个研究结果来自瑞士联邦洛桑理工学院的研究生Bogdan Kulynych。
在推特赞助的“算法漏洞悬赏大赛”中,Kulynych发现,推特的照片裁剪算法对照片中的特征存在不同程度的偏好。
Kulynych使用StyleGAN2生成了大量逼真的面孔,他根据肤色、身材、年龄和女性化等标签对这些面孔进行了分类,然后将这些数据放入了推特的照片裁剪算法中。
Kulynych发现,推特的算法对肤色有着最为明显的偏好趋势,算法更喜欢那些“苗条、年轻、具有典型女性面部特征”的面孔。
其次便是年龄,该算法对灰头发和白头发的用户存在明显的歧视行为。紧接着的是图片中的文字,相较于阿拉伯数字,算法会更喜欢英语。
GitHub链接:
https://github.com/bogdan-kulynych/saliency_bias
Kulynych在总结中补充说:“当应用算法时,这些内部偏见本质上会转化为代表性不足的危害,从而剔除那些不符合算法对体重、年龄、肤色偏好的人。”
Kulynych在大赛中获得了第一名,推特称Kulynych的发现“展示了算法模型如何放大现实世界的偏见和社会对美的期望”。
推特不喜欢iPhone?漏洞得到官方承认
在更早的时候,相关漏洞就已经被指出。
去年,一位推特用户试图发布他在Zoom的面部识别中注意到的一个问题,即在通话中没有显示出一位黑人同事的脸,当他发帖到Twitter上时,他注意到推特同样更偏向于他的脸而不是黑人同事的脸。
这对卡通人物同样适用。
甚至,还有网友发现,与iPhone相比,推特的算法更倾向于显示微软已停产Windows手机。
当推特首次上线照片裁剪功能时,研究人员在博客文章中解释了他们如何从面部识别开始裁剪图像,但实际上,并非所有的图像都包含人脸。
此外,人脸检测器会经常漏掉人脸,也会在没有人脸的情况下错误地检测到人脸。如果没有发现人脸,视角会自动地被聚焦在图像中心,这可能会导致尴尬的裁剪图像。
随后,推特官方也进行了调查,他们发现:
在男性和女性之间,人口统计学上的平等偏向于女性的差异为8%;
在黑人和白人的比较中,白人和黑人的人口比例相差4%;
在黑人女性和白人女性的比较中,白人女性在人口平等方面的差距为7%;
在黑人和白人男性的比较中,白人男性在人口统计学上有2%的差异。
同时,推特还通过随机选择100张男性和女性呈现的图像来测试“男性凝视”,这些图像在图像中具有多个被算法识别为显着的区域,并观察模型如何选择裁剪图像。
他们发现,每组每100张图像,没有裁剪到头部位置的情况大约3张,在这种情况下,算法会裁剪图像的其他特征,例如运动衫上的字母。
5月,推特下线了图片裁剪功能,只允许用户完整地发布照片,或自己决定如何裁剪照片。
“我们的结论之一是,并不是推特上的所有东西都适合使用算法,在这种情况下,如何裁剪图片是一个最好由人做出的决定。”推特软件工程总监Rumman Chowdhury在一篇关于该团队发现的博文中写道。
Chowdhury表示:“当我们考虑模型中的偏见时,不仅仅是关于学术或实验,而是它与我们在社会中思考的方式有关。”
如何对待算法偏见?
近年来,随着人工智能的逐渐发展,算法偏见也开始得到了重视。
对于此,英国谢菲尔德大学计算机专家Noel Sharkey表示,应该在可能改变生活方式的所有领域中禁止使用算法。
Sharkey对一系列机器学习系统存在偏见的现象深表担忧,Sharkey表示:“现在有很多偏见发生,从工作面试到社会福利,再到决定谁应该保释谁应该入狱等等,很明显我们必须停止使用决策算法。我一直对监管非常重视,我认为它会扼杀创新。”
“但后来我意识到,有些创新应该被扼杀,或者至少要有所保留。因此应该暂停所有影响人们生活的算法,这些算法并没有在发挥实际用处,反而在加深人们的偏见。”
Sharkey曾与谷歌和微软等公司就偏见问题进行了交谈,“他们知道这是一个问题,过去几年他们也一直在努力寻找解决方案,但到目前为止还没有找到”。
“在实验室里,系统可以对白人男性的识别率达到98%,但女性的识别率会偏低,深色皮肤的人效果会更下一层楼。在后面两种情况下,我们都可以说,系统并不能准确识别人脸。”
归根结底,算法背后是人,算法偏见背后其实就是人的偏见,算法的选择也就是在大数据处理之后人的选择。在针对相关现象进行批评时,更应需要关注现实中的偏见,保持内省。
这对每个人来说,都极为重要。
转载请在文章开头和结尾显眼处标注:作者、出处和链接。不按规范转载侵权必究。
未经授权严禁转载,授权事宜请联系作者本人,侵权必究。
本文禁止转载,侵权必究。
授权事宜请至数英微信公众号(ID: digitaling) 后台授权,侵权必究。
评论
评论
推荐评论
暂无评论哦,快来评论一下吧!
全部评论(0条)