logo
繁体
繁体

Clubhouse人气飙升,观察者质疑其传播错误信息

据商业内幕网报道,最近火爆的实时语音聊天软件Clubhouse面临传播错误信息和不当言论的质疑,聊天的实时性加剧了审查的难度。要建立强大的错误信息追踪系统,Clubhouse可能需要数年时间,但归根到底,还要看其管理层是否有解决这个问题的决心。加美编译

在最近一场关于新冠疫苗的Clubhouse讨论中,一名女性在群里举手加入了讨论,并详细讲述了如何使用草药和自然疗法比疫苗更有效地治疗新冠病毒。

她告诉数十位听众:“制药公司是一个行业,一门生意,就像其他行业和其他人一样,一个季度一个季度地专门致力于确保股东获得利润。这与你的健康无关。这与你的健康无关。”

Photo by Dmitry Mashkin on Unsplash

Clubhouse是去年3月推出的一款仅限受邀用户使用的应用,最近几周人气飙升,成为全球下载次数最多的iPhone应用之一。根据移动数据追踪公司App Annie的数据,截至今年3月1日,这款应用的下载量约为1140万次。而一个月前这个数字仅为350万。

该公司在2月底表示,每周有超过1000万的活跃用户。

Clubhouse上的煽动性言论和虚假信息

随着今年人气的飞速增长,一些技术人员和学者开始质疑Clubhouse是如何组织对话的。外界对该应用的程序和错误信息的传播感到好奇——这与人们长期以来对Facebook、Twitter和其他社交网络提出的问题是一样的。

尽管Clubhouse上关于疫苗的讨论可能只是违背了公司的指导方针以及疾病控制和预防中心的指导方针,但其他的讨论更具煽动性。

一个典型的例子是,一名Twitter用户分享了一个Clubhouse聊天室的截图,标题是:“600万犹太人真的被杀了吗?”在用户举报了这个聊天室后,该公司在Twitter上说:“Clubhouse上没有这个地方。我们已经采取了行动。我们明确谴责反犹太主义和所有其他形式的种族主义和仇恨言论。”

Photo by Nathana Rebouças on Unsplash

但一些观察人士质疑,不那么具有煽动性的虚假信息是否逃脱了人们的视线。

恢复隐私公司(Restore privacy)的隐私专家海因里希·朗(Heinrich Long)说:“到目前为止,这款应用的开发者并不太关心虚假信息,他们更关心的是该平台上不断增长的用户。”

通过设计,Clubhouse鼓励用户探索、参与和退出讨论。在任何时候,都有成百上千种不同语言的对话,这使得审核成为一项艰巨的任务。

在过去的一年中,该公司一直在建立一个“信任与安全”(Trust & Safety)团队,并在平台上不断增加其团队成员。截至上周六,该公司在其网站上发布了两则招聘公告。

Clubhouse拒绝了关于这篇报道的采访请求,但一位发言人发出了一份声明,称“种族主义、仇恨言论和辱骂在Clubhouse是被禁止的。”这样的言论将违反公司的方针和条款。

发言人通过电子邮件表示:“严禁在聊天室内散布或分享虚假信息。Clubhouse强烈鼓励人们举报任何违反我们服务条款或社区准则的行为。”

他们还说:“如果确认发生了违规行为,Clubhouse可能会根据违规的严重程度,警告、暂停或将用户从平台上移除。”

审查实时语音很艰难

根据该应用程序的指导原则,Clubhouse上的所有内容都会被记录下来。虽然讨论是实时的,但该公司保留了加密的录音。但通话结束后,录音就会被销毁。唯一能使对话被保存更久的方法是当听众向公司标记时。

Comparitech公司的隐私倡导人士保罗·比肖夫(Paul Bischoff)说,这种版主模式与Reddit的使用模式类似,后者主要依靠众包版主。然而,与基于文本的Reddit不同的是,Clubhouse不会永久记录每一次音频互动。

Photo by Alexander Shatov on Unsplash

比肖夫说:“这可能会导致绝缘回音室的效果,在没有任何外部观点的情况下,错误信息会被放大。并且,实时的特点会阻止人们在应用程序上报告不良行为,但它也可以阻止错误信息在应用程序之外的传播。”

例如,在关于疫苗的对话中,一位用户询问吹捧草药疗法的妇女,她是否可以分享她的信息,以便听众可以在线下与她接触,了解更多关于为什么疫苗不是治疗新冠病毒的最佳解决方案。

不良用户可能会利用Clubhouse

识别机器人活动公司Kasada的创始人兼首席执行官萨姆·克劳瑟(Sam Crowther)说,还有一个问题是,机器人或大量协调一致的用户可能会如何影响Clubhouse上的对话。

克劳瑟说,他已经在与机器人相关的留言板上看到了一些关于Clubhouse如何被利用的讨论。

克劳瑟说:“互联网企业的一个基本事实是,如果你建立了它,他们就会制造一个机器人来利用它。在假账户上线后再删除它们就太晚了——公司需要在注册时控制并查获不良的机器人用户。”

Photo by Good Faces on Unsplash

应当如何监管不良言论

那么,Clubhouse如何才能有效地处理数百万用户之间的数千次对话,特别是其中许多用户说的都是不同的语言?

在世界各地倡导言论自由的非营利组织“阿达拉项目”(ADALA Project)的执行董事斯蒂芬·亨纽韦尔(Stephen Hunnewell)说,与Facebook和其他社交网络一样,Clubhouse在某种形式的人工智能或语音模式识别系统的帮助下会做得最好。

但是,亨纽韦尔说,音频对话的真正危险在于,内容不能不听。

以草药治疗新冠病毒的对话为例。几十个听了这段对话的人已经消化了这些信息。即使对话被实时标记,Clubhouse也不能保证虚假信息不会被已经听到的人传播得更远。

亨纽韦尔说:“真正的危险在于,那颗种子在任何听到它的听众中交叉授粉,并且它们会被进一步放大。”

北卡罗来纳大学格林斯伯勒分校教授尼尔·克舍特里(Nir Kshetri)说,像Clubhouse这样的新平台,在很短的时间内就拥有了数百万用户,每一个新用户都很重要。这就是为什么Clubhouse这样的年轻公司会不惜一切代价选择优先发展。

克舍特里将Clubhouse与经营LinkedIn的微软等更大的竞争对手进行了比较。他说,这家公司已经存在了几十年,雇佣了大约3500名专家,专注于网络犯罪、人工智能和机器学习。

对于Clubhouse这样的小公司来说,要建立同样强大的错误信息追踪系统可能需要数年时间。他补充说,最终,这更多的是管理层的决定。

克舍特里说:“社交网站是否应该为用户消费的新闻和信息扮演看门人的角色,这个问题更多的是哲学层面的,而不是技术层面的。”