众力资讯网

【西弗吉尼亚州起诉 Apple,指控其允许通过 iCloud 分发儿童性虐待材料

【西弗吉尼亚州起诉 Apple,指控其允许通过 iCloud 分发儿童性虐待材料】

西弗吉尼亚州总检察长 JB McCuskey 今日宣布对 Apple 提起诉讼,指控该公司明知 iCloud 被用于传播和存储儿童性虐待材料(CSAM),却仍然允许其存在。JB McCuskey 表示,多年来 Apple 对此“置之不理”。

“保护恋童癖者的隐私是绝对不可原谅的。更重要的是,这违反了西弗吉尼亚州的法律。鉴于 Apple 迄今为止拒绝自我约束并采取道德上正确的做法,我提起这项诉讼,要求 Apple 遵守法律,举报这些图像,并停止允许存储或分享这些图像,从而停止对儿童造成二次伤害,”总检察长 JB McCuskey 说。

根据诉讼文件,Apple 内部称自己是“传播儿童色情内容的最大平台”,但其提交的有关儿童性虐待材料的报告数量远少于 Google 和 Meta 等同行。

在 2021 年,Apple 宣布了新的儿童安全功能,其中包括可以检测存储在 iCloud 照片中的已知儿童性虐待材料(CSAM)的系统。在遇到用户、数字权利组织、儿童安全倡导者和安全研究人员的强烈反对后,Apple 决定取消在 iCloud 照片中检测 CSAM 的计划。

Apple 在宣布不会实施该功能时表示:“无需企业梳理个人数据,即可保护儿童。我们将继续与政府、儿童权益倡导者和其他公司合作,帮助保护年轻人,维护他们的隐私权,并使互联网成为对儿童和我们所有人来说更安全的地方。”

Apple 后来解释说,创建用于扫描私人 iCloud 数据的工具会“为数据窃贼发现和利用创造新的威胁途径”。

西弗吉尼亚州总检察长表示,Apple 以用户隐私为幌子,逃避了保护儿童的责任,并且 Apple 选择不部署检测技术并非被动监管,而是其自身选择。诉讼指出,由于 Apple 对硬件、软件和云基础设施拥有端到端的控制权,因此它不能声称自己是“不知情的、被动的儿童性虐待材料传播渠道”。

该诉讼寻求惩罚性赔偿和禁令,要求 Apple 实施有效的儿童性虐待材料检测措施。

2024 年,Apple 因取消儿童性虐待材料(CSAM)检测而被起诉。一项代表 2680 名潜在受害者的诉讼称,Apple 未能实施 CSAM 监控工具,给受害者造成了持续的伤害。该诉讼索赔金额为 12 亿美元。