商业内幕网4月12日报道,一个倡导言论自由的主要非营利组织呼吁社交平台立即做出“具体的”和“可行动的”改革,以减少网络暴力的扩散。
倡导言论自由的非营利组织PEN America的研究人员上个月发布了一份报告,详细描述了社交平台如何改变,以帮助遏制网络暴力。该组织建议Facebook、Instagram和Twitter可以对其平台设计、功能和政策做出大量实质性改变,以建立更安全的线上空间。

皮尤研究中心(Pew Research Center)和反诽谤联盟(Anti-Defamation League)最近进行的调查显示,近一半的美国人表示他们经历过网络骚扰或暴力。PEN的报告进一步发现,记者和作家——尤其是女性、有色人种和从事在线工作的LGBTQ+人群——经历的骚扰更剧烈、更频繁。
PEN认为,正因为如此,网络暴力就成了言论自由的问题。这种虐待行为导致这些边缘群体的人离开了媒体行业,而这个行业已经被男性、异性恋和白人垄断。研究人员认为,网络暴力会产生系统性的后果,破坏公平和包容的进程,限制新闻自由,让言论自由不畅。
为了缓解这些问题,PEN提出了几项技术公司可以采取的积极变革和反应性措施,以确保他们的用户在受到骚扰之前受到保护,并能够方便地报告和删除相关负面的内容。PEN承认,它的建议可能会产生意想不到的后果,即给予私营公司不受约束的权力来监督言论,但表示,解决广泛存在的网络暴力问题是一个更为紧迫的问题。
以下是PEN推荐的社交平台实施的八个关键功能和策略。
PEN建议平台允许用户创建隐私和安全设置的多种不同配置,只需点击一下即可激活。PEN说,这将使用户在“微调”他们看到的内容时拥有更多的发言权,而不仅仅是在Instagram上拥有私人或公共账户。这些不同的配置还可以帮助像“静音”、“拉黑”和“限制”这样的行为在每个平台上执行。该报告还敦促各平台向用户提供“快照”,说明他们的设置更改会产生什么效果——比如Facebook的“视隐私”功能。
Facebook在2020年推出了活动管理功能,让用户可以在一个地方查看他们所有的旧帖子。PEN呼吁其他平台效仿,为用户提供对旧内容进行搜索和排序的方法,以及批量删除和归档内容。PEN说,这样做可以防止人们很久以前的“黑历史”被挖掘,当这些帖子重新出现或断章取义时,可能会被用来羞辱目标,或让他们受到训斥或解雇。
该报告呼吁各平台增加允许用户命名个人“快速反应小组”的功能——本质上是一组用户在遭受网络暴力时可以求助的可信赖的盟友。用户可以指定在危机时刻可以访问他们账户的人,或者为他们报告和屏蔽有害内容。
尽管许多平台使用机器驱动和人工自动化来过滤有害内容,但这种调节系统严重依赖于环境,将很多内容置于“灰色地带”,PEN表示。相反,该报告建议实施一种主动的屏蔽功能,允许用户在其订阅源中出现暴力内容之前识别和过滤掉这些内容。
PEN建议,这种被用户屏蔽检测到的有害内容将被过滤到一个“隔离”仪表板中,而不是出现在你的动态和直接消息中。这个仪表板可以作为一个控制面板,用户可以批量查看标记的内容,任何被报告为暴力或有害的内容也将在此不断更新。
PEN说,平台有责任确保用户能够保留网络虐待和骚扰的证据,尽管这些证据已经被删除。该报告建议平台自动存储用户限制、报告、屏蔽或屏蔽的任何滥用内容。这样做将允许用户获得有关这些滥用内容的所有相关的公开数据,这些数据在未来的执法参与或法律行动中可能是有价值的。
PEN的报告批评了平台在用户遭受网络暴力时缺乏紧迫感和响应能力,尤其是在极端情况下或危及生命的情况下。潘建议平台创建一个“SOS按钮”,一个虚拟的紧急按钮,用户可以立即触发额外的平台内安全措施,并提供第三方资源。此外,PEN说,平台应该提供一个电话或聊天热线,让用户在面对极端的虐待时——比如网络骚扰或有组织的暴民——可以获得个性化的、了解创伤的实时支持。
上述所有建议将为面临网络暴力的用户提供更多他们可以采取的行动。然而,这些都不是针对施虐者本身的。PEN说,平台需要让他们的规则和惩罚更容易被用户接受和理解。这个系统应该包括对滥用行为的不断升级的惩罚,概述什么会导致帖子被撤下或用户被停职。PEN鼓励平台主动推动用户修改被视为暴力的内容,然后再发布。该报告称,针对那些想要对某一平台的行为提出争议的用户,他们的申诉程序需要进行修改和正规化。