据商业内幕网报道,Facebook新的监督委员会已经做出了第一批裁决,推翻了它所研究的5个内容监管案例中的4个,并向这家社交媒体巨头提出了政策建议。
这家科技公司的“最高法院”是在去年10月份启动的。它的作用是审查Facebook的一些较为困难的内容监管问题。
董事会投票决定恢复的被删除的帖子之一是2020年10月的一个帖子,其中一位缅甸用户用缅甸语写道,something wrong with Muslims psychologically(穆斯林人心理上有问题)。它最初因违反“仇恨言论”而被删除,但董事会推翻了它,因为它认为该帖子被断章取义。
另一个帖子是Facebook在2020年10月发布的帖子中被删除的。一名巴西用户在Instagram上发布了一张显示乳腺癌症状的照片,其中包括裸体。Facebook对该帖子的删除是自动的,而不是人为的。委员会推翻了它,因为删除表明了缺乏适当的人为监督,而这引起了人权问题。
Facebook删除了2020年11月的一个帖子,它认为该帖子含有对阿塞拜疆人的贬低。委员会维持了这一决定。
该委员会在其网站上表示,第一批案件决定是为了建立一个能够长期追究Facebook责任的强大机构。它还表示,它将公布其对Facebook最近删除的一个关于印度的帖子的决定,该帖子违反了其暴力和煽动政策。
该委员会还表示,它接受了有关前总统特朗普无限期停职的案件,并将很快就该案件开放公众评论。它有90天的时间来做出决定。
作为首批裁决的一部分,该委员会还向Facebook提出了9项源于其决定的有关内容节制的政策建议。
根据其网站的数据,自10月启动以来,已经有超过15万起案件被提交给该委员会。但正如商业内幕网此前报道的那样,专家们担心,由于这家科技巨头保持着对其政策执行方式的控制,委员会可能会让Facebook逍遥法外。
Facebook和其他科技平台最近因其内容节制问题而面临反击。一些人认为他们的决定是出于政治动机,特别是保守派。在Twitter和Facebook打击前总统特朗普的内容后,他们感叹互联网平台对他们的歧视。其中一些被标记的帖子包括一些毫无根据的选举欺诈主张。
其他人则表示,Facebook及其同行在控制网上的“仇恨言论”和错误信息方面做得不够。一个严重的例子是一系列帮助推动缅甸国家种族灭绝的帖子。2018年底,Facebook承认,它在阻止缅甸“仇恨言论”和暴力的传播方面做得不够。