据彭博社报道,Facebook对于帖子内容的审核具有“两面性”。
这不是算法所导致的。

当涉及到过滤掉用户在社交网络上发布的通常具有误导性和危险性的内容时,Facebook有几个大问题。首先,它的人工智能不起作用。第二,该公司不想承认这一点,因为雇用员工来做适当的审核会破坏其商业模式。这种组合会让议员和股东非常担心。
《华尔街日报》的杰夫·霍维茨的一项调查显示了对Facebook“两面性”的新认识。即使高管们公开声称他们的自动审核对所有用户都应用的是相同的规则,该公司实际上对名人和政治家给予了特殊待遇。这类“白名单”账户由员工处理,他们手动允许“白名单”账户发布具有煽动性和误导性的帖子,包括当时的美国总统特朗普发出的暴力行为呼吁帖子,否则算法就会审查这些帖子。
为什么会有这种两级做法?首先,Facebook似乎认识到它的算法有问题,它可以把这些算法强加给普通用户,但不想激怒有影响力的人,因为他们可能会大声公开地抱怨。除此之外更重要的是,名人的煽动性帖子会产生大量的参与性,从而产生广告收入。“白名单”是一种悄悄解决这些问题的方式,同时营造一种人工智能在有效工作的虚幻景象。
在某种程度上,Facebook只是反映了技术在社会中的更广泛应用。在许多领域,精英们得到的是人情味,而其他人得到的是算法。有常春藤背景的人通过他们的朋友找到工作,而其他人必须与招聘算法抗衡,即使他们本领过硬,也会被输送到不受重视的职位。顶级大学的申请者会得到个人面试的机会,而其他学校则使用招生算法,系统地减少奖学金的发放。
然而,Facebook有一个特殊的动机,那就是坚持认为其自动化程序可以平等地处理每个人的不同情况。只要人们和当局,以及Facebook自己的监督委员会相信它,该公司就可以继续把最糟糕的帖子描绘成不幸的反常现象,而不是出于盈利的目的,并能够避免雇用更大规模和非常昂贵的人力资源来负责任地审查帖子内容。很难想象Facebook坦白并承担解决其真正问题的成本,它将很难支撑超过1万亿美元的市值。
在被曝光后,Facebook现在可能会学会更好地隐藏自己的问题。例如,不雇用人员来进行内容审查。立法者最好能认识到一个鼓励并利用最有影响力用户的最坏行为的商业模式所带来的威胁。Facebook和其他科技公司的股东将不再信任人工智能,并开始要求提供更多证据以证明它既安全又有效。
(今日汇率参考:1美元=6.43人民币)