logo
繁体
繁体

未来没有个人隐私?为防虐待儿童,苹果计划在其产品上安装扫描软件

据《金融时报》报道,知情人士透露,苹果打算在美国的iPhone上安装软件来扫描虐待儿童的图像,这引起了安全研究人员的警惕,他们警告称,这可能会为监控数百万人的个人设备打开大门。

两位听取了线上会议简报的安全研究人员表示,本周早些时候,苹果向一些美国学者详细介绍了其拟议的系统,名为“neuralMatch”。他们表示,这些计划最早可能在本周进行更广泛的宣传。

  Photo by Christopher Gower on Unsplash   

如果该自动化系统认为检测到非法图像,它将主动向一组人工审查人员发出警告,如果材料能够得到证实,这些人将与执法部门联系。该计划最初只会在美国推出。

苹果公司拒绝置评。

这些提议是苹果公司试图找到到一个折衷方案。一方面,苹果在兑现其保护消费者隐私的承诺,另一方面,政府、执法机构和儿童安全活动人士要求包括恐怖主义和儿童色情在内的刑事调查中,要求苹果公司提供更多的协助。

苹果和Facebook等科技公司为其在产品和服务中越来越多地使用加密技术进行辩护。2016年,在美国加州圣贝纳迪诺发生枪击案后,iPhone制造商因获取一名恐怖分子嫌疑人的iPhone而与联邦调查局对簿公堂,此后执法力度进一步加强。

安全研究人员虽然支持打击虐待儿童的行为,但他们担心,苹果公司可能会让世界各地的政府得以获取公民的个人数据,这可能远远超出其初衷。

剑桥大学安全工程教授罗斯·安德森(Ross Anderson)说:“这绝对是一个可怕的想法,因为它将导致对……我们的手机和笔记本电脑的分布式批量监控。”

研究人员表示,尽管该系统目前被训练用于识别儿童性虐待,但它可以被用于扫描任何其它有针对性的图像和文本,例如恐怖分子的斩首或抗议活动中的反政府标语。苹果的先例也可能增加其它科技公司使用类似技术的压力。

约翰斯·霍普金斯大学的安全教授马修·格林(Matthew Green)说:“这将会如同打翻的潘多拉盒,政府会要求每个人都这么做。”他被认为是第一个就这一问题发布推文的研究人员。

曾在Facebook和Deliveroo工作过的安全研究员和隐私活动人士亚历克·马费特(Alec Muffett)表示,苹果此举是“具有重大影响力的”,是“个人隐私的巨大倒退”。

他说:“苹果的隐私保护正在倒退,可能会退回到像《1984》那本书里写的一样。”

基于云计算的照片存储系统和社交网站已经可以扫描儿童虐待图片,但当试图访问存储在个人设备上的数据时,这个过程会变得更加复杂。

萨里大学(University of Surrey)计算机安全教授艾伦·伍德沃德(Alan Woodward)表示,苹果系统的侵入性较小,因为筛选是在手机上进行的,“只有在匹配的情况下,才会向搜索者发送通知。如果你真的走这条路,这种分散的方法是你可以采用的最佳方法。”

苹果的neuralMatch算法将持续扫描存储在美国用户iPhone上的照片,这些照片也上传到了苹果的iCloud备份系统。用户的照片经过散列法(Hashing)过程转换成一串数字,将与数据库中已知的儿童性虐待图片进行比较。

该系统是根据美国非营利组织国家失踪和受剥削儿童中心收集的20万张性虐待图片进行训练的。

据知情人士透露,在美国,上传至iCloud的每一张照片都将获得一张“安全凭证”,注明照片是否可疑。一旦一定数量的照片被标记为可疑照片,苹果将对所有可疑照片进行解密,如果明显是非法的,则将这些照片转交给相关部门。

[yarpp]