苹果公司因放弃 iCloud 的 CSAM 检测而被起诉
苹果公司因决定不实施扫描iCloud照片以查找儿童性虐待材料(CSAM)的系统而遭到起诉。据《纽约时报》报道,该诉讼认为,苹果没有采取更多措施来防止这种材料的传播,而是迫使受害者重温他们的创伤。这起诉讼描述了苹果在宣布"广泛宣传旨在保护儿童的改进设计"后,未能"实施这些设计或采取任何措施来检测和限制"这些材料。
苹果于2021年首次宣布了这一系统,并解释说它将使用国家失踪与受虐儿童中心和其他团体提供的数字签名来检测用户iCloud库中已知的CSAM内容。不过,在安全和隐私倡导者提出这些计划可能为政府监控制造后门之后,该公司似乎放弃了这些计划。
据报道,这起诉讼来自一名27岁的女性,她以化名起诉苹果公司。她说,在她还是婴儿的时候,一位亲戚对她进行了猥亵,并在网上分享了她的图片,她现在几乎每天都会收到执法部门的通知,称有人因持有这些图片而被起诉。
参与诉讼的律师詹姆斯-马什(JamesMarsh)说,在这起案件中,可能有2680名受害者有权获得赔偿。
该公司的一位发言人告诉《纽约时报》,该公司正在"紧急积极地进行创新,以打击这些犯罪,同时不损害我们所有用户的安全和隐私"。
今年8月,一名9岁女孩及其监护人起诉苹果,指控该公司未能解决iCloud上的CSAM问题。
责任编辑:站长云网
踩一下[0]
顶一下[0]