据《巴伦周刊》报道,推特(Twitter) 周三(当地时间9月1日)宣布,它正在测试一项自动阻止仇恨信息的新功能,这个美国网站在保护其用户免受网络攻击方面面临越来越大的压力。

激活新“安全模式”的用户,如果他们在某条推文中被“提及”,该推文将会被过滤7天,这样他们就不会看到标记为可能包含仇恨言论或侮辱的消息。
推特表示,这项功能最初将由少数说英语的用户进行测试,优先考虑“边缘化社区人群和女记者”,她们经常发现自己是网络攻击的目标。
推特在一份声明中表示:“我们希望采取更多措施,来减轻人们处理不受欢迎互动的负担。”并补充说,该平台致力于进行“健康对话”。
与其他社交媒体巨头一样,推特允许用户举报他们认为具有仇恨性的帖子,包括种族主义、恐同和性别歧视信息。
但活动人士长期以来一直抱怨,推特政策中的漏洞在许多情况下允许暴力和歧视性评论留在网上。
六个反歧视团体正在法国起诉该平台,指责该公司“长期和持续” 未能阻止仇恨性评论。
“安全模式”是一系列功能中的最新一项,旨在让推特用户对谁能与他们互动有更多控制。以前的措施包括,对谁可以回复推文进行限制。
推特表示,这项新功能正在进行中,它也有可能会意外地阻止事实上并无攻击行为的信息。
该公司表示:“我们不会总是全对, 而且能会犯错误,因此,可以随时在您的“设置”中查看和撤消“安全模式”。
为了评估一条信息是否应该被自动屏蔽,推特的软件将从语言以及作者和收件人之间以前的互动中获取线索。
推特说,它在建立这个工具时,曾咨询过网络安全、心理健康和人权方面的专家。
参加会谈的英国数字权利组织Article 19称该功能是“朝着正确方向迈出的又一步,使推特成为参与公共对话的安全场所,无需担心遭到网络攻击和暴力。”
这一消息是在Instagram上个月推出了遏制辱骂和种族主义内容的新工具之后发布的。此前欧洲杯结束后,出现了一系列针对足球运动员的仇恨性评论。