logo
繁体
繁体

Facebook把你禁言或封号了?对不起,可能扎克伯格自己都不清楚怎么回事

Kirsten Grind在《华尔街日报》上发表文章,称Facebook对其平台上内容管理的准则模糊,大量被禁言甚至封号的用户都不清楚自己是违反了Facebook哪条规定,在受到处罚以后,有的用户选择上诉却往往得不到解决,Facebook也不对处罚进行具体的说明.Facebook发言人称由于平台上的帖子数量太大,并且受疫情影响没有找到足够的版主审核内容才导致了目前的状况,并且,在某些敏感领域,要划定明确的界限真的很难。

Photo by Brett Jordan on Unsplash 

用户被禁言,却不知道理由

在Facebook监狱里(这里指的是Facebook账号禁言等处罚),许多用户因为他们不理解的违规行为而服刑。

科尔顿·奥克利在对学生贷款表达意见后被禁言。这位纽约州立大学新帕尔茨分校的应届毕业生发帖说,任何对取消贷款感到生气的人都是“可悲和自私的”。他的判决是:三天内不得在Facebook上发帖。

纽约布鲁克林的自由撰稿人亚历克斯·根德勒在分享了《史密森尼》杂志里关于新几内亚部落的故事链接后,也遭到了类似的禁令。俄克拉荷马州的历史教师尼克·巴克斯代尔最近服刑30天,因为他开玩笑地对一个朋友说:“伙计,你现在是在疯狂地喷水!”

这三个人都不太明白他们做错了什么。

巴克斯代尔问:“如果你使用‘疯狂’一词,就会被自动禁言吗?”

陷入Facebook难以理解的内容裁决系统的用户的困境,加强了公众对Facebook采取高压手段和无能政策的映象。随着立法者和公众关注社交媒体公司对信息流的巨大权力,这个持续了多年的问题正在变得越来越严重。

Facebook新成立的监督委员会,一个由20名律师、教授和其他独立专家组成的小组,负责审议对Facebook所做决定的上诉,负责解释Facebook众多的详细规则,这些规则包括从涂鸦的描述到对有新闻价值的人物说脏话。

委员会最密切关注的决定预计将在周三作出,当Facebook将前总统特朗普无限期地从平台上赶走时,它是否恰当地应用了其规则。

立法者多次就这一问题询问马克·扎克伯格,这位首席执行官重复他的口头禅:没有人会认为这种艰巨的工作应该由一家私人公司来处理。然而,挑战依然摆在那里:如何最好地监管一个每天都有数十亿条帖子、评论和照片的平台。

Facebook承诺建立更好的内容监管制度,却不公开完整的审核标准

在其先前的决定中,委员会将矛头指向了Facebook的众多规则,称这些规则不明确,“用户难以理解”。

Facebook表示,它正在采取措施解决监督委员会的建议,“为我们的产品建立更好的客户支持”。

Facebook发言人艾米丽·凯恩在一份书面声明中说:“虽然我们正在努力使我们的政策透明化,但我们也理解,人们仍然会因为我们的政策感到困惑,这就是为什么我们承诺要做更多的事情。

自10月开始受理案件以来,监督委员会已收到超过22万份来自用户的上诉,并作出了8项裁决,其中6项裁决推翻了Facebook的最初决定。

委员会发言人约翰·泰勒说,委员会的意图从来都不是“对任何特定的问题提供热门观点。董事会的意义在于为Facebook面临的最困难的内容做出决定”。

近年来,Facebook推出了许多新规则,往往是为了回应立法者和各种利益集团的具体投诉,旨在保护用户,并指导从事内容审核的外包大军。这些内部准则是对该公司网站上所列的社区标准的补充,但并没有公开。

一些准则列举了具体的例子来说明细微的区别。

本报看到的文件中说,版主会删除如下发言:“如果你通过邮件投票,你会得到新冠!”

文件还说,下面这种说法是可以接受的:“如果你通过邮件投票,要小心,你可能会感染新冠!”

在2020年选举前后,版主们被要求删除这句话:“我和我的朋友将对投票站进行监督,以确保只有正确的人进行投票。”

但这一句就可以保留:“我听说今天有人在扰乱去投票站的秩序,那我不会去投票站。”

Facebook女发言人说,这些差异很小,但“足以让我们区分,以及我们为什么为内容审查人员制定这些详细的规定”。

这位女发言人说,Facebook每天要审查200万条内容。扎克伯格说,该公司有超过10%的可能做出错误的决定——这意味着每天有大约20万个决定可能是错误的。

违反Facebook规则的用户可能会在许多人所说的“Facebook监狱”中度过一段时间,在24小时至30天内失去评论和发布的能力,或者在更严重的情况下,无限期地失去他们的账户。一个用户在面临禁言之前,通常必须对他们进行多次处罚,但Facebook没有告诉用户需要多少次处罚才会被封号,Facebook在2018年的一篇博文中说,“我们不希望人们利用系统”。

Facebook没有公布它限制的账户数量。

当内容被删除或用户被封锁时,用户通常会收到一个通知,说他们违反了社区标准。该通知通常会指出违反了哪一个大类。除了监督委员会的决定外,在用户提出上诉后,Facebook每个季度都会恢复数千条之前被删除的内容。

据熟悉该公司的人士和接受本报采访的二十多名用户称,Facebook最近更多地转向人工智能化,以帮助指导其决策。依靠人工智能和算法来删除内容,并决定用户的上诉,结果是更多的误判,一些用户想不理解Facebook怎么能在短短几秒钟内对他们的内容做出决定。

去年夏天,纽约大学的一篇研究论文称该公司的内容审核方法“严重不足”,并恳请Facebook停止将大部分工作外包,并将审核员的总人数增加一倍。

福特汉姆大学的法学教授奥利维尔·西尔万对Facebook和内容审核进行了大量研究,他说:“这是建立一个如此庞大的系统必然要面临的问题,我们想知道,这么大的服务所带来的好处是否超过了混乱和伤害,我认为这种想法没什么不对。”

巴克斯代尔先生是俄克拉荷马州纽卡斯尔市的一名历史教师,自去年秋天以来,他的Facebook页面被禁止了好几次,每一次的原因他都说他并不完全理解。

有一次,他在一次历史讨论中分享了一张二战时期纳粹官员在埃菲尔铁塔前的照片,并对照片进行了简单的描述,之后被限制了三天的发帖和评论。他因试图向他的一位粉丝解释伪科学一词而被禁言30天。

今年3月,他在一次辩论中与另一位历史爱好者开玩笑说:“你现在是在疯狂地喷水。”Facebook提醒他,他已被限制了7天。当巴克斯代尔先生点击一个按钮进行上诉时,Facebook不同意,并将他的禁令延长至30天,说他过去的六个帖子违反了该公司的社区标准。

巴克斯代尔先生说,他努力遵守Facebook的社区标准,但不知道自己怎么就犯了这么多的违规行为。

Facebook的女发言人说,该公司误删了巴克斯代尔先生的评论。她说,一般来说,用户可以在他们的个人资料所附的“支持收件箱”中找到他们的违规行为。

Facebook的社区标准,即公共规则,近年来已经扩大到包括六大类和27个子类,从“暴力和图片内容”到“虚假新闻”。

Facebook的仇恨言论政策禁止通过种族、宗教和其他人口特征直接攻击他人。然而,根据社区标准,如果这些话是用来提高认识的,或 “以一种授权的方式”,那是可以的。“但我们要求人们清楚地表明他们的意图。如果意图不明确,我们可能会删除内容”。

在内部,Facebook有一套更为具体和复杂的准则,这是一份超过1万字的文件,被称为“执行标准”,它的15000多名内容管理人依靠这套准则来做出决定。还有更多的文件在内部被称为“操作指南”和“已知问题”,进一步解释了该公司规则的理由。

在大多数情况下,当一个内容被Facebook标记,无论是由用户还是由其算法,这些帖子、照片或视频会由版主审查,版主的工作就是尝试应用Facebook制定的规则来判断这些内容。

 

Photo by Karsten Winegeart on Unsplash 

 

监督委员会要求公开Facebook内部评判标准

在本报看到的一份文件中,该公司禁止使用“有辱人格的身体描述”,其定义为“称某人的外表丑陋、恶心、令人厌恶等”。它举了一个例子:“约翰·史密斯是多么的肥胖和丑陋,真是令人恶心。”

该文件继续写道:“我们不会删除像‘卷曲的头发’、‘瘦长的手臂’、‘宽阔的肩膀’等内容,因为‘卷曲’、‘瘦长’和‘宽阔’不是缺陷或劣质的,因此不是贬低。”

许多用户并不知道这些帮助版主解释公开规则的内部文件。相比之下,Alphabet公司的谷歌搜索引擎公布了全套175页的规则,雇佣了1万名“搜索质量评估员”用来评估搜索结果。

Facebook发言人说:“我们希望人们了解我们在不同类型的言论上的界限,我们欢迎人们讨论我们的政策,但我们不希望用过多的信息淹没人们,使水变得浑浊。”

在今年的几项裁决中,监督委员会已经敦促Facebook在其社区标准中更加明确,类似于其内部文件中的具体规定。

据监督委员会称,一名法国Facebook用户去年批评法国缺乏健康战略,并质疑允许医生在紧急情况下开出羟氯喹等“无害药物”(一种曾传言能预防新冠的药物),社会会有什么损失。

美国食品和药物管理局已经警告不要使用这种药物治疗新冠。

Facebook撤下了这个帖子,说它在平台上促成了“迫在眉睫的身体伤害”的风险,这是“暴力和煽动 ”社区标准的一部分。

监督委员会在其裁决中不同意,称“Facebook网站把不同部分的政策拼凑在一起,让用户很难理解哪些内容被禁止”。委员会建议Facebook “解释在执行其社区标准以保护公众健康时,该平台将使用哪些因素,包括基于证据的标准,来明确侵犯性发言的界限。”

作为成立委员会时协议的一部分,Facebook必须在监督委员会做出决定后恢复一段内容,但它不需要遵循委员会的其他建议。关于这个法国的案例,Facebook在2月份的一篇博文中说,它致力于执行监督委员会的所有建议。

当Facebook删除一个用户错误地一句话是来自纳粹宣传部长约瑟夫·戈培尔的帖子时,监督委员会不同意,认为这违反了其关于“危险个人和组织”的社区标准。

Facebook告诉监督委员会,戈培尔在一份危险人物内部名单上。委员会说,Facebook应该公开这份名单。Facebook正在评估公开该名单的可行性,该公司在其2月份的帖子中说。

当艺术家桑尼·查普曼在Facebook群组中看到一张照片,上面是一名穆斯林妇女在上个月的反穆斯林抗议活动前的自拍,这是一张流传甚广的照片,纽约州汉考克的查普曼女士想加入这场对话。在回复一条贬低穆斯林的评论时,她写道,她曾独自在摩洛哥旅行,“在那里感觉比我在美国要安全得多,这儿有一些疯狂的白人男子四处开枪”。

Facebook标记了她的评论,并通知她她被限制在30天内发帖或发表评论,因为该帖子违反了关于仇恨言论的社区标准。

查普曼说她很困惑,因为在她的评论之后,另一条表达类似观点的评论也被保留了下来。根据本报查看的帖子截图,该帖子写道:“这个国家的大多数暴力行为是由白人男子实施的。通常是基督徒,通常是白人至上主义者,而且几乎总是白人。”

查普曼早些时候曾因称另外两名贬低副总统卡马拉·哈里斯的用户为种族主义者而被禁言30天。尽管她报告了其他用户的评论,但这些评论并没有被删除。

查普曼女士说:“我对Facebook的理解就是不要在Facebook上说话。”

在《华尔街日报》分享了查普曼女士的例子后,Facebook恢复了她的账户。

最近,Facebook扩大了监督委员会的审核范围,包括对用户要求删除内容的决定。

Facebook倚靠人工智能审查内容,但效果并不理想

据熟悉该公司的人士说,近年来,Facebook一直在更多地依靠其人工智能来标记问题内容。2020年5月,该公司吹嘘其使用人工智能删除了与新冠疫情有关的不实内容。

Facebook在2020年第四季度在“欺凌和骚扰”类别下删除了630万条内容,比第三季度的350万条有所增加,该公司在其季度社区标准执行报告中说,部分原因是“提高了我们的自动化能力”。

该公司说,用户对该类别中约44.3万件内容提出了上诉,Facebook恢复了其中约三分之一的内容。与上一季度相比,其他类别被删除的内容较少,而内容的处理可能受到外部因素的影响,比如帖子被疯狂转发的次数。

据现任和前任员工称,Facebook越来越多倾向于管理内容的同时并不向用户解释,他们希望通过这种方式避免因其决定而产生的纠纷。这些做法隐藏有问题的帖子,向更少的用户展示这些帖子,悄悄地限制那些被怀疑有不当行为的帖子的影响力,而不是撤下这些内容或将其完全锁定在平台之外。

Facebook已经承认在某些情况下有这种做法。为了保护印度的州选举,它在3月的一篇博文中说,它将“大幅减少我们的主动检测技术所识别的可能是仇恨言论或暴力和煽动内容的传播。”

福特汉姆大学的西尔万教授说,使用人工智能来进行大规模的审核“过于生硬,而且不够细化。现在的人工智能和自动化决策还不足以完成对真正具有文化特色的帖子或对广告进行分类的艰苦工作。”

用户说,他们有几个月或几年前的内容被删除,没有任何解释,一位用户称之为“Facebook机器人出了问题”。

Facebook发言人说,造成这种情况的一个原因可能是内部采用的“银行系统”技术,该技术可以跟踪有问题的内容,并在其再次被发布时将其删除。

监督委员会已建议Facebook让用户知道何时使用自动化来审核内容,并让他们在某些情况下向人工服务提出上诉。Facebook在其博文中说,它正在评估这些建议的可行性。

自去年新冠疫情爆发以来,Facebook用户根本没有机会对禁令提出上诉,只能选择“不同意”决定,但也没有进一步审查,尽管Facebook确实查看了其中一些案例并恢复了内容。Facebook表示,这是因为它缺乏审查案件的人工版主。在4月底的一项决定中,监督委员会敦促Facebook“优先考虑强化这一职能”。

Photo by Morning Brew on Unsplash 

 

涉及人体的内容更难划定界限

英国切尔滕纳姆的纹身艺术家谭雅·布克斯顿,曾试图对她在Facebook上展示乳晕纹身的账户提出上诉,这种纹身是为做过乳房切除手术的女性制作的,可以重塑乳头。

在Facebook上可以展示多少身体敏感部位,一直是一个特别棘手的问题。

在其阐述规则的一份内部文件中涉及到这一敏感话题,包括什么样的内容构成“近乎裸体”或性兴奋。

该公司在给版主的一份文件中写道,应该允许Facebook用户展示母乳喂养的照片,但同时警告说:“这方面的错误很敏感。”母乳喂养活动家或“哺乳主义者”在媒体上发声,因为人们在公共场合骚扰他们。任何删除这些内容的行为都会使我们暴露在审查制度之下”。

虽然公开的社区标准对巴克斯顿女士的纹身含糊其辞,但Facebook的内部准则涉及到这个问题,并说应该允许纹身图片。但是,该公司在其对版主的指导方针中承认:“要在这方面做出准确的决定可能真的很难。”

巴克斯顿女士说她不知道内部指南,她每次被禁言时都会提出上诉。

Facebook表示,它错误地从巴克斯顿女士的页面上删除了两段内容,在《华尔街日报》提出问题后,它恢复了这两段内容。

去年,在提出上诉后,Facebook给她发了一个自动说明,说由于疫情的缘故,“我们可以审查内容的人少了”。

Facebook写道:“由于我们无法再次审查你的帖子,我们无法改变我们的决定。”