儿童安全监督机构指责苹果公司隐瞒CSAM真实数据

站长云网 2024-07-22 5iter.com 站长云网

一家儿童保护组织称,它在英国苹果平台上发现的虐待图片案例比苹果公司在全球范围内报告的案例还要多。2022年,苹果公司放弃了儿童性虐待材料(CSAM)检测计划,因为有人指控该计划最终将被用于监控所有用户。该公司转而使用一套被称为"通信安全"的功能,即模糊发送给儿童的裸照。


据英国《卫报》报道,英国全国防止虐待儿童协会(NSPCC)称,苹果公司对iCloud、FaceTime和iMessage等服务中发生的CSAM事件的统计严重不足。所有美国科技公司都必须向国家失踪与被剥削儿童中心(NCMEC)报告发现的CSAM案件,而在2023年,苹果公司共报告了267起案件。

这些报告声称是为了在全球范围内检测CSAM。但英国NSPCC独立发现,在2022年4月至2023年3月期间,仅在英格兰和威尔士,苹果公司就卷入了337起犯罪行为。

NSPCC儿童安全在线政策负责人理查德-科拉德(RichardCollard)说:"苹果公司服务上发生的英国儿童虐待图片犯罪数量与他们向当局报告的全球虐待内容数量之间存在令人担忧的差异。苹果公司在应对儿童性虐待方面显然落后于许多同行,而所有科技公司都应该在安全方面进行投资,并为英国《网络安全法案》的推出做好准备。"

与苹果相比,Google在2023年报告了超过1,470,958起案件。同期,Meta在Facebook上报告了17,838,422起案件,在Instagram上报告了11,430,007起案件。

苹果公司无法看到用户的iMessages内容,因为这是一项加密服务。但国家监测和评估中心指出,Meta的WhatsApp也是加密的,但Meta在2023年报告了约1,389,618起疑似CSAM案件。

苹果公司在回应指控时,只向《卫报》提及了其之前关于用户整体隐私的声明。一些虐待儿童问题专家对人工智能生成的CSAM图像表示担忧,尤其是即将推出的AppleIntelligence系统是否会生成有害图像。

责任编辑:站长云网