logo
繁体
繁体

调查:Facebook删贴对所有人一视同仁?真信你就输了

Jeff Horwitz在华尔街日报发表文章,由于Facebook的自动审核和人工审核都存在缺陷,为了防止误删备受媒体关注的知名人士的帖子而给Facebook带来额外的公关危机,Facebook制造了XCheck程序,将任何有影响力的人放在一个“白名单”中,当这个名单中的人的帖子被标记为问题帖时,Facebook往往不会对帖子做出“立即删除”的行动,甚至不会对它们采取任何措施。

而另一方面,普通人的帖子如果被标记为问题贴,这些帖子往往被立刻删除,并且既不告知被删的原因,也没有上诉的机会。

Icons vector created by Vectorium 

马克·扎克伯格曾公开表示,Facebook公司允许其30多亿用户与政治、文化和新闻界的精英们平等对话,Facebook的标准适用于每个人,无论他的地位或名气如何。

事实上,根据华尔街日报查阅的公司文件,Facebook私下建立了一个系统,使高知名度的用户免于遵守部分或全部的规则。

这个计划被称为“X检查”(XCheck),最初是作为针对高知名度账户(如名人、政治家和记者等)采取的质量控制措施。文件显示,今天,它将数百万的VIP用户从公司的正常执法过程中保护起来。

一些用户被列入“白名单”,这些用户免于被采取制裁措施,而另一些VIP用户则被允许发布违反规则的材料并等待Facebook员工的审查,但这些审查往往永远都不会到来。

文件显示,XCheck有时会保护那些包含骚扰或煽动暴力的公众人物的帖子,这些违规行为如果发生在普通用户身上通常会导致制裁。2019年,Facebook允许国际足球明星内马尔向他的数千万粉丝展示一名指控他强奸的女性的裸体照片,这些内容很久之后才被Facebook删除。

根据这些文件,被列入白名单的账户分享了一些煽动性言论,这些言论按照Facebook事实核查人员的标准来看都是错误的言论,比如疫苗是致命的,希拉里包庇“恋童癖团伙”,以及前总统特朗普称所有寻求庇护的难民为“动物”等。

2019年对Facebook的白名单进行了一项内部审查,这项审查被标记为“律师-当事人特权”,调查发现对白名单用户的偏袒普遍存在,而且“从公众立场来看是站不住脚的”。

注:Attorney–client privilege,律师-当事人保密特权是指“当事人有权拒绝披露或阻止他人披露其与律师之间的保密信息”。

保密审查写道:“我们实际上没有像我们公开宣称的那样做。”

审查称Facebook的行为“违反了信任”,并补充说:“与我们社区的其他人不同,这些人可以违反标准而无须承担任何后果。”

文件显示,尽管Facebook试图对XCheck进行控制,但这个系统在2020年时已经发展到至少580万用户,为了准确审核大量内容并避免负面关注,Facebook在无形中创造了社交网络的精英阶层。

在描述XCheck系统时,Facebook误导了公众和自己的监督委员会(Oversight Board),这个机构是Facebook为确保公司执行系统的问责制而设立的。

6月,Facebook以书面形式告诉监督委员会,其针对高知名度用户的系统被用于“少量决策”。

在一份书面声明中,Facebook发言人安迪·斯通说,对XCheck的批评是公平的,但他补充说,这个系统“是为了一个重要的原因而设计的:创造这个额外的步骤,是为了方便我们遇到需要更多理解的内容时,更准确地执行政策。”

他说,Facebook在与董事会的沟通中一直是准确的,公司正在继续努力逐步取消白名单,“这些内部材料很多都是由过去的信息拼凑而成,并掩盖了最关键的一点:Facebook已经自我发现了XCheck的问题,并一直在努力解决这些问题”。

Photo by Thought Catalog on Unsplash 

内部文件

描述XCheck的文件显示,Facebook非常清楚地知道,平台充满了造成伤害的缺陷,而这些缺陷往往只有Facebook才完全了解。

此外,这些文件显示,Facebook往往缺乏解决这些问题的意愿和能力。

长期以来,Facebook的既定目标一直是将人们联系起来,在过去17年里,随着它的扩张,从哈佛大学的本科生到数十亿的全球用户,它一直在混乱的现实中挣扎,将具有不同动机的不同声音聚集在一起——从人们相互祝愿生日快乐到墨西哥贩毒集团在这个平台上发展业务。这些问题正在逐渐吞噬这个公司。

文件显示,在美国和海外,Facebook内部的审核人员一次又一次地发现平台的负面影响,包括青少年的心理健康、政治话语和人口贩运等领域。一次又一次,尽管有国会听证会、Facebook的承诺和众多媒体的曝光,Facebook并没能解决这些问题。

有的时候,Facebook因担心损害业务而有所保留,在其他情况下,Facebook所做的改变适得其反,即使遭到自己的系统和算法的阻挠,扎克伯格依然坚持按照个人好恶判断帖子。

这些文件包说明Facebook的问题,在公司内部和首席执行官本人那里,都被充分地了解。而当Facebook对立法者、监管者,以及在XCheck事件中对自己的监督委员会公开谈论其中的许多问题时,它经常提供误导性的或部分的答案,掩盖它了解的程度。

Facebook没有挣扎的一个领域是盈利能力,虽然在过去的五年里,它一直受到严格的审查,并受到内部争论的困扰,Facebook的利润超过了1000亿美元,公司目前的估值超过了1万亿美元。

粗暴的手段——仅限普通用户

对于普通用户来说,Facebook在评估帖子是否符合公司反对欺凌、性内容、仇恨言论和煽动暴力的规定时,实行了一种粗暴的手段。有时,Facebook的自动系统会在没有人工审查的情况下立即删除涉嫌违反规则的内容,而有的时候,被系统或用户标记的材料由外部公司雇用的内容管理人进行评估。

扎克伯格在2018年估计,Facebook有10%的内容删除决定是错误的,而且,根据所采取的执法行动,用户可能永远不会被告知他们违反了什么规则,也不会有上诉的机会。

然而,被指定为XCheck审查的用户会受到更多尊重,Facebook设计这个系统是为了尽量减少员工在文件中所描述的“公关危机”,即对VIP采取错误的执法行动所带来的负面的媒体关注。

文件显示,如果Facebook的系统认为XCheck中的账户可能违反了规则,他们不会删除内容,至少不会立即删除,他们会将投诉转到一个单独的系统,由训练有素的全职员工负责,进行更深入的审查。

文件说,大多数Facebook员工都有将用户加入XCheck系统的权限,2019年的审计发现,Facebook至少有45个团队参与了白名单,用户一般不会被告知他们被标记为特殊待遇,一份关于XCheck资格的内部指南列举的资格包括“有新闻价值”、“有影响力或受欢迎”或“有公关风险”。

巴西足球明星内马尔轻松进入了白名单,内马尔在Facebook旗下的Instagram上拥有超过1.5亿的粉丝,是世界上最受欢迎的账户之一。

在一名女子于2019年指控内马尔强奸后,他在Facebook和Instagram上发布了为自己辩护的视频,并向受众展示了他与指控者的WhatsApp通信,其中包括她的名字和她的裸体照片,他指责这名女子对他进行勒索。

Facebook处理发布“未经同意的亲密图像”的标准程序很简单,删除。但内马尔受到了XCheck的保护。

在一天多的时间里,XCheck系统阻止了Facebook版主删除这个视频,对这一事件的内部审查发现,有5600万Facebook和Instagram用户,看到了这个在Facebook的另一份文件中被称为“报复性色情”的视频,这份文件中写道,一名员工在审查中说这名女性当事人遭到了其他用户的网暴。

审查发现,“这段视频被转发超过6000次,她的人格遭到了欺凌和羞辱”。

Facebook的操作指南规定,不仅未经授权的裸体照片应被删除,而且发布这些照片的人应该被封号。

审查写道:“在将此案上报给领导层后,我们决定让内马尔的账户保持活跃,这与我们通常的‘一击’禁用政策不同。”

内马尔否认了强奸指控,也没有法院对他提出指控,这名妇女被巴西当局指控为诽谤、敲诈和欺诈,前两项指控被撤销,第三项指控她被宣告无罪。

根据去年的“健康计划”(Get Well Plan)的信息,加入XCheck的人的名单“分散在整个公司,没有明确的管理或所有权,这导致XCheck系统没有被用来监控那些真正构成风险的人,反过来将XCheck应用于那些不值得的人(如滥用账户,持续的违规者),这些都造成了公关危机”。

在实践中,Facebook似乎更关心如何避免失误,而不是减轻高调的违规行为,Facebook在2019年对XCheck的重大错误进行了审查,结果显示,在调查的18起事件中,有16起涉及Facebook对知名用户采取的错误行动。

这18起事件中,有4起涉及对特朗普及其儿子小唐纳德·特朗普的内容采取的不慎执法行动,其他错误的执法行动是针对参议员伊丽莎白·沃伦、时装模特桑纳亚·纳什和扎克伯格本人的账户。

By Alessio Jacona, CC BY-SA 2.0, via Wikimedia commons

撤下的内容

在过去,Facebook会联系一些违反平台政策的VIP用户,并提供了一个24小时的“自我补救窗口”,让他们在Facebook撤下违规内容并实施处罚之前自行删除。

Facebook发言人斯通说,Facebook已经逐步取消了这项福利,但在2020年选举期间仍在实施。他拒绝透露这项福利何时结束。

据知情人士称,有时,从一个VIP账户中删除内容需要通信和公共政策团队的高级管理人员的批准,甚至是扎克伯格或首席运营官谢丽尔·桑德伯格的批准。

2020年6月,在公司内部通信平台(名为Facebook Workplace)上进行的关于XCheck隐藏规则的讨论中,出现了一个特朗普的帖子。此前一个月,特朗普在一个帖子中说:“当抢劫开始时,枪击就开始了。”

注:“当抢劫开始时,枪击就开始了”,这句话最初是由佛罗里达州迈阿密的警察局长沃尔特·海德利在回应1967年圣诞节期间爆发的暴力犯罪时使用的。 他指责“15至21岁的年轻流氓”利用当时席卷美国的“民权运动”,在命令他的警员用开枪打击暴力之后,他对媒体说:”我们不介意被指责为警察暴力。” 特朗普在评论2020年乔治·弗洛伊德的抗议活动中引用了这句话。

Facebook的一位经理指出,公司设计的用于检测帖子是否违规的自动系统,判断特朗普的这个帖子的得分是90分(满分100分),意思是它非常有可能违反了平台的规则。

对于一个普通用户的帖子,这样的分数会导致帖子在有人向Facebook报告后立即被删除。然而,正如扎克伯格去年公开承认的那样,他亲自作出决定,让这条帖子继续存在。这位经理写道:“与算法评分和行动相比,这样的人工决定似乎不那么站得住脚。”

特朗普的账户在6月被Facebook停用两年之前被列在XCheck中,特朗普家人、国会和欧盟议会的成员以及市长、民间活动家和持不同政见者的账户也是如此。

虽然XCheck计划包括大多数政府官员,但它并不包括所有的公职候选人,有时在事实上给予了选举中的现任者相对于挑战者的优势。文件显示,这种差异在州和地方选举中最为普遍,员工们担心Facebook可能因为偏袒而被指责。

斯通承认这种担忧,并表示公司已经在努力解决这个问题。他说:“我们做出了多种努力,以确保在联邦和非联邦选举中,挑战者和在职者都被纳入XCheck计划中。”

XCheck计划涵盖了几乎所有经常出现在媒体上或拥有大量网络粉丝的人,包括电影明星、有线电视谈话节目主持人、学者和拥有大量追随者的网红。在Instagram上,XCheck甚至涵盖了受欢迎的动物网红账户,包括“哈巴狗道格”。

文件显示,实际上,被XCheck系统标记的大部分内容都没有面临后续审查。

根据12月底对XCheck计划的总结,即使公司对内容进行了审查,像内马尔的帖子那样的执法延误意味着本应被禁止的内容传播给了大量受众。去年,XCheck系统保护了违反规则的帖子,使它们被浏览了至少164亿次后,才被删除。

文件显示,Facebook多年前就认识到,XCheck系统给予的免责权是不可接受的,有时它保护了所谓的滥用账户和持续违反规则的人,然而,这项计划却随着时间的推移不断扩大,仅去年就增加了数万个账户。

此外,Facebook还要求事实核查人员追溯性地改变他们对高知名度账户帖子的调查结果,撤销传播错误信息而实施的惩罚标准,甚至改变算法来避免政治影响。

2020年9月,Facebook的一位高级研究科学家在一份备忘录中说:“Facebook目前没有防火墙能够将与内容有关的决定与外部压力隔离开来。”这份备忘录描述了Facebook公共政策团队和高级管理人员对规则制定和执行过程的日常干预。

另一位Facebook数据科学家在12月的一份备忘录中说得更直白:“Facebook经常为有权势的行为者破例。”

By Minette Lontsie, CC BY-SA 4.0, via Wikimedia commons

被误删的帖子

扎克伯格一直把他如何处理有争议的内容说成是有原则的中立,他在去年的一次听证会上告诉国会:“我们不想成为真理的仲裁者”。

Facebook针对VIP用户的特别执法系统产生于这样一个事实,即人工和自动内容审核系统经常出现错误。

问题的一部分在于资源,虽然Facebook大肆宣扬在内容审核员大军上的支出,但它仍然没有能力完全处理平台上用户生成的超大量的内容。就算有足够的人手和较高的准确率,每天做出数百万次的审核决定仍然会涉及许多引人注目的帖子,有可能造成公关危机。

根据一份内部文件,Facebook希望有一个系统来“减少误报和人工工作量”,XCheck系统就是为了实现这一目标而设立的。

为了尽量减少与普通用户的冲突,Facebook长期以来一直保持内容删除通知的不透明性,用户经常在Facebook、Instagram或竞争对手的平台上描述他们遭遇的误删,通常还附有他们收到的通知截图。

Facebook为对此密切关注,去年关于这个问题的一次内部演讲的题目是“用户对Facebook行动的报复”。

根据这份报告,一位用户在回应一次错误的删帖时抱怨:“从字面上看,我只说了一句生日快乐而已。”

另一位用户在Facebook写道:“白色油漆的颜色是最糟糕的。” 这个帖子被标记为仇恨言论,这位用户抱怨道:“显然,Facebook现在不允许抱怨油漆的颜色了?”

报告中说,即使Facebook正确地应用了它的规则,用户依然常常感到愤怒:“用户就喜欢揪着我们难得的几个错误不放。”

如果说被普通用户吐槽只是件不愉快的事,那么不经意间惹恼知名用户的后果则让人尴尬了。

去年,Facebook的算法误删了霍萨姆·索卡里的一个多年前的帖子,根据Facebook 2020年9月的“事件回顾”,霍萨姆·索卡里是一名独立记者,曾负责BBC的阿拉伯语新闻服务。

在这个被误删的帖子中,他谴责了本·拉登,但Facebook的算法将这个帖子误解为支持恐怖分子而违反平台规则,人工审查员错误地同意了这个自动决定,并拒绝了索卡里的上诉。

结果,索卡里的账户被阻止播放直播视频。作为回应,他在推特和Facebook的平台上发帖谴责,这些帖子获得了数十万次浏览。

Facebook迅速更正了错误,但不久后又错误地删除了索卡里批评保守派穆斯林人士的更多帖子。

索卡里在推特上回应说:“Facebook的阿拉伯语支持团队显然被极端分子渗透了。”这一说法引发了Facebook内部的争论。

在征求了41名员工的意见后,Facebook在一份关于这起事件的报告中说,XCheck仍然过于“被动并且不能满足需求”。报告的结论是,XCheck应该进一步扩大,需要把像索卡里这样的著名独立记者囊括在内,以避免未来的公关灾难。

随着XCheck如雨后春笋般涌现,涵盖了文件中所说的全球数百万用户,审查所有有问题的内容成为一项新的工作。

By w:Facebook, via Wikimedia commons

白名单

为了应对文件中描述的对审核工作长期投入不足的情况,Facebook的许多团队选择根本不对高知名度的账户执行规则,这种做法被称为白名单。根据2019年的审计报告,在某些情况下,白名单状态的授予几乎没有记录是谁授予的以及为什么授予。

2019年的审查报告称:“这个问题很普遍,几乎触及公司的每一个领域。”它的结论是,白名单“给公司带来了许多法律、合规和合法性风险,并对我们的社区造成了伤害”。

次年的一份文件中描述的修复计划说,一系列免责和随后从未被审查的帖子已成为这项计划的核心,这意味着XCheck用户的大多数内容不受审核约束。这份文件写道:“我们目前只审查了不到10%的XCheck用户的内容。”

斯通表示,Facebook在2020年期间改善了这一比例,但他拒绝提供具体的数据。

Facebook在2019年以有限的形式承认,在错误信息方面给予知名政治账户回旋余地,这让一些负责保护平台的员工感到困惑。研究人员指出,高知名度的账户比普通账户的风险更大,但受到的监管却最少。

Facebook研究人员在2019年的一份备忘录中说:“我们是在明知故犯地将用户暴露在错误信息中,而我们有足够的流程和资源来缓解这些错误信息。”

这份备忘录名为《政治白名单与Facebook的核心既定原则相矛盾》, 科技网站The Information此前报道过这份文件。

举个例子,政治白名单用户分享了来自另类医学网站的文章,声称加州伯克利的一名医生透露,化疗在97%的情况下是无效的。事实核查组织驳斥了这些说法,指出这个帖子扭曲事实,而且文章中引用的医生已于1978年去世。

在一份回应备忘录的内部评论中,负责Facebook公民团队(Civic Team)的高管萨米德·查克拉巴蒂表达了他对免责权的不满,这个团队专注于平台上的政治和社会言论。

他写道:“我加入Facebook的根本原因之一是,我相信它有可能成为一种深刻的推动民主的力量,使每个人都能拥有平等的公民声音。因此,对不同的人制定不同的言论规则对我来说是非常令人不安的。”

其他员工说,这种做法与公司的价值观相抵触。

Facebook数据科学部门的一位经济学家写道:“FB在内容政策方面的决策受到了政治因素的影响。”

在2020年6月的一份备忘录中,当时Facebook公民诚信团队的首席工程师考希克·艾尔建议:“将内容政策与公共政策分开”。

Buzzfeed此前报道了这些文件的内容。

同月,员工们在内部平台Workplace上就公开XCheck计划的好处进行了辩论。

当透明度建议引来同事们几十个表达支持的表情符号时,公民团队的查克拉巴蒂联系了监督XCheck项目的产品经理,这位产品经理做出了回应。

这位产品经理写道:“公平问题确实存在,而且XCheck管理不善,但我们必须在它和商业风险之间取得平衡”。由于公司已经在努力解决计划的缺陷,最好的方法还是维持‘内部透明’。”

5月5日,Facebook的监督委员会维持了对特朗普的封号决定,委员会指责他在1月6日华盛顿国会大厦的骚乱中制造了暴力风险。委员会还批评了公司的审核措施,建议Facebook更清楚地阐明对知名人士的规定,并制定对违规者的惩罚措施。

作为19项建议之一,委员会要求Facebook“报告通过XCheck程序作出的决定与普通执法程序相比的相对错误率和标准的一致性”。

一个月后,Facebook说它正在实施19项建议中的15项,关于XCheck检查数据的建议是它表示不会采纳的四项建议之一。

Facebook在回应中写道:“追踪这些信息是不可行的,我们已经在我们的新闻室解释了这个产品,”它补充说,并链接到2018年的一篇博文,这篇博文宣称“当内容违反我们的标准时,无论谁发布的内容,我们都会把它从Facebook删除。” Facebook 2019年的内部审查就曾指出,这篇博文的内容具有误导性。

圣约翰大学的法律教授凯特·克罗尼克表示,XCheck的文件显示,Facebook误导了监督委员会。这个委员会在2019年得到了Facebook最初的1.3亿美元承诺的资助,克罗尼克教授得到了公司的特别许可,研究这个小组的形成及其流程。

她在应本报要求查看了XCheck的文件后这样评价Facebook :“他们为什么要花这么多时间和金钱成立监督委员会,然后对它撒谎?这将会完全削弱它的作用。”

在一份书面声明中,监督委员会的发言人说,它“已经在多个场合表达了对Facebook内容审核过程中缺乏透明度的担忧,特别是对高知名度账户的管理不一致等行为”。

文件显示,Facebook正在努力改变白名单的做法,公司发言人也证实了这一点,公司设定的目标是在2021年上半年取消对违反FB规则的“高度严重”行为的免责权。3月的更新报告称,公司正在努力控制XCheck的规模。

Facebook错误预防团队的一位产品经理写道:“VIP名单还在继续增长”。她宣布了一项“止血”计划,即阻止Facebook员工在XCheck中加入新用户。

一个潜在的解决方案仍然没有在Facebook的考虑范围内,即对高知名度的用户采取与其他人一样的评判标准。

她的备忘录说:“我们没有建立专门的系统来为所有可能发生在VIP用户身上的诚信行为做额外的调查。”她指出,为了避免犯可能激怒有影响力的用户的错误,Facebook将指示审查人员面对VIP用户时,采取温和的方法。

她写道:“我们将在我们的审查流程中进行善意的假设,并倾向于‘在证明有罪之前判定为无辜’。”

这位经理写道,这一计划得到了公司领导层的“普遍”支持。