苹果公司因决定不现实扫描 iCloud 相片以查找儿童性暴虐材料 (CSAM) 的系统而遭到告状。据《纽约时报》报说念,该诉讼觉得,苹果莫得遴荐更多法子来防患这种材料的传播,而是迫使受害者重温他们的创伤。 这告状讼形色了苹果在书记\"平方宣传旨在保护儿童的校正盘算推算\"后,未能\"现实这些盘算推算或遴荐任何法子来检测和限度\"这些材料。
苹果于 2021 年头次书记了这一系统,并评释注解说它将使用国度失散与受虐儿童中心和其他团体提供的数字签名来检测用户 iCloud 库中已知的 CSAM 骨子。 不外,在安全和诡秘观念者提议这些规画可能为政府监适度造后门之后,该公司似乎拔除了这些规画。
据报说念,这告状讼来自别称 27 岁的女性,她以假名告状公司。 她说,在她仍是婴儿的本领,一位亲戚对她进行了猥亵,并在网上共享了她的图片,她当今果然每天王人会收到法则部门的见知,称有东说念主因合手有这些图片而被告状。
参与诉讼的讼师詹姆斯-马什(James Marsh)说,在这起案件中,可能有 2680 名受害者有权取得补偿。
该公司的一位发言东说念主告诉《纽约时报》,该公司正在\"要紧积极地进行革命,以打击这些造孽,同期不毁伤咱们所有这个词效户的安全和诡秘\"。
本年 8 月, 别称 9 岁女孩偏激监护东说念主告状苹果,指控该公司未能惩办 iCloud 上的 CSAM 问题。