感谢亚汇网网友苹果在2021年末曾宣布计划通过设备端哈希值系统扫描iCloud中的图片,以检测和阻止CSAM传播,并在用户发送或接收含裸露内容的照片时发出警告。目前,裸露内容检测功能(CommunicationSafety)仍然存在,但CSAM检测功能因隐私专家、儿童安全组织和政府的广泛反对被取消。起诉者称,她在CSAM检测功能仍在时,曾接到执法部门的通知,发现她遭受性虐待的图片通过一台在佛蒙特州查获的MacBook被上传至了iCloud。她在诉讼中表示,苹果停止这一功能的决定使这些材料得以广泛传播,苹果因此向消费者销售了“有缺陷的产品”,对像她这样的用户群体造成了伤害。据该女子的一名律师称,原告要求苹果改变其做法,并向可能多达2680名其他符合条件的受害者提供赔偿,此类受害者有权根据法律获得至少每人15万美元的赔偿。如果全部受害者成功获得赔偿,苹果的赔偿金额可能超过12亿美元(亚汇网备注:当前约87.28亿元人民币)。类似的案件已在北卡罗来纳州发生。一名9岁的CSAM受害者指控苹果,称她通过iCloud链接收到陌生人发送的非法视频,并被鼓励拍摄并上传类似内容。苹果公司提出了一项驳回案件的动议,指出联邦法规第230条保护其免于对用户上传到iCloud的材料承担责任。但近期法院裁定,这一法律保护仅适用于积极内容审核的情形,可能削弱苹果的抗辩理由。针对新诉讼,苹果发言人弗雷德?塞恩兹表示:“苹果认为儿童性虐待材料令人发指,我们致力于在不损害用户隐私和安全的前提下积极打击相关犯罪。”他提到苹果扩展了信息应用中的裸露内容检测功能,并允许用户举报有害材料。然而,原告及其律师玛格丽特?马比认为,苹果的措施远远不够。马比表示,她通过执法报告和相关文件发现了超过80起与受害者图像及苹果产品相关的案例,其中一个分享这些图像的人是一名湾区男子,其iCloud账户中存储了超过2,000张非法图片和视频。广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,亚汇网所有文章均包含本声明。