logo
繁体
繁体

员工因审核有害内容患上PTSD,TikTok及其母公司字节跳动遭起诉

彭博社12月23日报道,法庭文件显示,由于TikTok多达1万名内容审核员被迫长期观看儿童色情、强奸、斩首和动物断肢等有害身心健康的内容,这家短视频分享平台及其母公司字节跳动遭员工起诉。

Photo by Alexander Shatov on Unsplash

但实际情况更糟糕。内容审核员坎迪·弗雷泽在她发起的集体诉讼中称,她审核过的视频包括恐怖的食人行为、破碎的头颅、校园枪击事件、自杀,甚至是坠楼事件,并且配有音频。

弗雷泽称,这一点是无可否认的。洛杉矶联邦法院周四的文件显示,TikTok要求审核员加快工作速度,每12小时轮班审核数百个视频,只有一个小时的午餐时间和两次15分钟的休息时间。

她的律师在诉状中说:“由于内容审核量太大,每段视频的审核时间不超过25秒,并且是一次性审查三到十段视频。”

文件显示,TikTok也与脸书和YouTube等社交媒体平台一样,都制定了内容审核指南,指导审核员如何在工作中处理虐待儿童等内容。

原告称,但TikTok并没有执行这些准则,其中包括提供心理咨询服务以及将轮班时间限制在四小时之内。

弗雷泽表示,由于必须观看这些刺激性的视频内容,她患上了创伤后应激障碍(PTSD)。

起诉书写道,“原告难以入睡,常常被可怕的噩梦折磨”。

弗雷泽正在寻求其他内容审核员的支持,要求TikTok对心理伤害予以赔偿,并要求法院命令公司为审核员设立医疗基金。

由于不在正常营业时间内,TikTok没有立即回应置评请求。