logo
繁体
繁体

苹果将推出新功能,检测并报告用户账户里存储的儿童色情照片

据彭博社报道,苹果公司说,将在今年晚些时候推出一款新软件,该软件将分析用户iCloud photos账户中存储的儿童色情图片,然后向有关部门报告相关情况。

Photo by Tyler Lastovich on Unsplash 

 

作为涉及儿童的新安全措施的一部分,该公司还宣布了一项功能,可以分析在短信应用程序中发送和接收的儿童照片,以确定它们是否是暴露的。苹果还将在其Siri数字语音助手中增加功能,以便在用户搜索相关辱骂内容时进行干预。

这家总部位于加州库比蒂诺的科技巨头周四(当地时间8月5日)介绍了这三项新功能,并表示它们将于2021年晚些时候投入使用。

如果苹果在用户账户中检测到儿童色情照片,该公司将手动审查这些情况,并向国家失踪和受剥削儿童中心报告,该中心与执法机构合作。苹果公司表示,在美国,用户的iPhone和iPad上的图片在上传到云端之前会进行分析。

苹果公司表示,将通过将照片与国家失踪和受剥削儿童中心提供的已知儿童性虐待材料数据库进行比对,来检测虐待图片。该公司使用了一种名为NeuralHash的技术,可以分析图像并将其转换为一组独特的数字。然后将该密钥与使用密码学的数据库进行比较。

苹果公司表示,其系统每年的错误率“不到一万亿分之一”,而且它保护了用户的隐私。苹果公司在一份声明中表示:“只有在用户的iCloud照片账户中存在已知儿童性虐待材料数据库中内容的情况下,苹果才会了解用户的照片。即使在这些情况下,苹果也只了解与已知儿童性虐待材料数据库匹配的图像。”

该公司表示,任何觉得自己的账户被错误标记的用户都可以提出上诉。

为了回应人们对这一功能的隐私担忧,苹果发布了一份白皮书,详细介绍了这项技术,以及多名研究人员对该协议的第三方分析。

国家失踪和受剥削儿童中心总裁兼首席执行官约翰·克拉克对苹果的新功能大加赞赏。

短信上的功能是可选的,可以由父母启用。该系统将检查孩子们收到的和准备发送的照片中是否含有色情内容。如果孩子收到带有色情内容的图片,图片将被模糊处理,孩子必须点击额外的按钮才能观看。如果他们确实查看了图像,他们的父母将被通知。同样地,如果一个孩子试图发送一色情的图像,他们将被警告,他们的父母将收到一个通知。

苹果表示,短信功能使用的是设备上的分析,公司并无法查看短信内容。这项功能适用于苹果的短信服务和多媒体消息服务等其他协议。

该公司还将针对Siri和搜索推出两个相关功能。该系统将能够回答有关报告儿童剥削和虐待图片的问题,并告知用户如何提交报告。并能够警告搜索虐待儿童内容的用户。该公司表示,短消息和Siri的相关功能将应用于iPhone、iPad、Mac和Apple Watch。