logo
繁体
繁体

人工智能也会种族歧视?谷歌等科技巨头正研发新的肤色量表

据路透社6月18日报道,谷歌本周透露,公司正在开发一种替代行业标准的肤色分类方法,越来越多的技术研究人员和皮肤科医生说这种方法不足以评估产品是否对有色人种有偏见。

(图源:Flickr)

存在争议的是被称为Fitzpatrick皮肤类型(FST)的六色量表,自20世纪70年代以来皮肤科医生一直在使用。谷歌现在依靠它来对人种进行分类,并作为衡量人脸识别系统或智能手表心率传感器等产品表现的标准。

批评者说,FST包括“白色”皮肤的四个类别,以及“黑色”和“棕色”的各一个类别,忽视了有色人种的多样性。美国国土安全部的研究人员在去年10月举行的联邦技术标准会议上建议放弃用FST评估面部识别,因为它无法很好地表示出不同人群的肤色范围。

在回答路透社关于FST的问题时,谷歌表示一直在暗中研发更佳的方案。

谷歌说:“我们正在研究其他更具包容性的方案,这些方案可能对我们的产品开发有用,我们还会与科学和医学专家以及与有色人种社区合作的团体进行合作。”

这场争议是对科技行业的种族主义和多样性不足问题的反思,与金融等行业相比,科技行业的员工以白人为主。随着从人工智能新产品扩展到医疗保健和执法等敏感和受监管的领域,确保技术标准对所有肤色以及不同年龄和性别的人都能一视同仁变得更加重要。

众多类型的产品提供了远比FST更丰富的颜色选择。 美国绘儿乐(Crayola)去年推出了24种颜色的蜡笔,美泰公司今年的芭比娃娃有9种肤色。

对谷歌来说,这个问题远非学术问题。它在2月份宣称部分安卓手机上的摄像头可以通过指尖测量脉搏率,无论用户的皮肤是浅色还是深色,读数平均会有1.8%的误差。

(图源:Unsplash)

谷歌后来给出了类似的承诺,即皮肤类型不会明显影响Meet视频会议的背景过滤功能,也不会影响即将推出的一款识别皮肤状况的软件(非正式名称为Derm Assist)。这些结论来自于FST测试。

已故哈佛大学皮肤科医生托马斯·菲茨帕特里克博士,发明了这个量表,用于对银屑病(一种瘙痒的皮肤病)进行个性化的紫外线辐射治疗。他通过询问“白种人”在不同时段晒太阳后出现的晒伤或晒黑程度不同,将他们的皮肤按等级分为罗马数字I至IV。

十年后,V型代表“棕色”皮肤,VI型代表“黑色”。该量表仍然是美国测试防晒霜产品法规的参照标准,而且它仍然是评估病人癌症风险等流行皮肤病学的标准。

一些皮肤科医生说,该量表是一个糟糕的、被滥用的护理标准,而且经常与种族和民族话题混为一谈。

苏珊·泰勒博士说:“许多人会认为我是V型皮肤,很少或从不会被烧伤,但我是会会被烧伤的,”她是宾夕法尼亚大学的皮肤科医生,在2004年成立了彩色皮肤协会,推动对边缘化社区的研究,“看我的皮肤颜色就说我是V型,这对我来说是一种伤害”。

直到最近,科技公司还不以为然。代表计算机领域业界标准的Unicode协会在2014年将FST作为其采用黄色以外的五种肤色的依据,说这个尺度“没有负面的关联”。

2018年一项名为“性别色调”的研究,发现面部分析系统更经常误判皮肤较黑的人,并且普遍都使用FST作为人工智能的参数标准。该研究将FST描述为一个“起点”,但后来做过类似研究的科学家告诉路透社,他们使用该量表是为了保持一致。

微软承认FST的不完善之处。苹果公司说,它采用各种标准对不同肤色的人进行测试,FST只是其中一种。佳明称,由于进行了大量的测试,它相信数据是可靠的。