苹果因放弃扫描 iCloud 照片以查找儿童性剥削材料(也称为缩写 CSAM)的有争议的计划而面临一项备受瞩目的诉讼,要求赔偿 12 亿美元。

对从未部署的选项采取法律行动!
但此次试验似乎尚未存档 CSAM 文件,这引发了有关用户隐私和在线儿童保护之间平衡的复杂问题。
为此,我们必须回到函数的起源。在,这家加州公司一直非常在介绍其 CSAM 系统(儿童性虐待材料)期间,该系统不得不于 12 月暂停实施。当时,她极其谨慎地删除了所有与 CSAM 有关的提及,证实了围绕所设想的措施的争议。
在全球范围内,这些是其平台上旨在保护儿童的功能,包括一个能够检测 iCloud 中儿童色情内容同时保护用户隐私的系统。它们分为三个领域:iMessage、Siri、iCloud。很快命名iPhone扫描
该功能引发了用户、官员和安全研究人员的强烈反对。
面对批评,苹果先是推迟,然后又取消了这个项目。该决定是出于对安全、用户隐私以及利用该技术进行其他类型监控的风险的担忧。

有什么要求?
该诉讼代表 2,680 名潜在的虐待受害者提起,声称苹果允许 CSAM 内容继续在网上传播。对于以化名提起诉讼的主要原告(这在美国是可能的)来说,苹果公司的不作为会让她过去被利用的图像仍然可以访问,从而延长她的创伤。
总体而言,请愿者认为,苹果放弃 CSAM 检测工具,未能履行保护儿童和虐待受害者的职责。因此,那iCloud Photos 中未能部署这项技术直接导致了有害内容的传播。
就他而言,苹果重申了其保护儿童的承诺,同时为其不引入可能损害用户隐私的技术的选择进行了辩护。因此,该公司强调了其当前的工具,例如警告儿童可能存在不当内容的通信安全功能。
数据保密风险太大
苹果决定不部署该功能后,出面进一步解释,响应协会的要求热倡议,以及这个,通过 Erik Neuenschwander (苹果公司用户隐私和儿童安全总监)。
儿童性虐待是一种令人发指的行为,我们致力于打破导致儿童脆弱的胁迫和影响链。 [...] 数字化为每个用户存储的 iCloud 数据将创建新的威胁向量,数据窃贼可以找到并利用这些威胁向量 [...] 这可能会导致我们走上滑坡,带来意想不到的后果。搜索一种类型的内容会打开大规模监视的大门,并可能会促使您研究其他加密的消息传递系统。
(Erik Neuenschwander,苹果公司用户隐私和儿童安全总监)

换句话说,在拥有之后平衡利益,对私人生活的干扰和数据黑客攻击的风险(从而削弱了苹果神圣的安全性)太大了。因此,有必要寻找另一种打击儿童色情制品的方法。此外,她还得出结论:它无法继续开发像 CSAM 这样的分析机制。
这一回应是在英国政府重新引发加密争论的紧张时刻做出的。。后者计划修改其法律制度,迫使科技公司在不通知用户的情况下(在某些情况下)停用端到端加密等安全功能。在这种情况下,苹果公司明确表示,如果这项法律以目前的形式获得通过,它将在英国撤回其服务,包括 FaceTime 和 iMessage。