行为 iOS 18.2 测试版的一部分推出的一项新功能允许澳大利亚的儿童径直向公司叙述不当履行。该功能是 iOS 17 中包含的安全秩序的延迟。 这些功能可自动检测 iMessage、AirDrop、FaceTime 和相片中包含涌现履行的图片和视频。
领先的设定是,CSAM教育一朝触发,就会出现一双干扰弹窗。 这些弹窗会确认奈何与当局探讨,并率领儿童指示家长或监护东谈主。
咫尺,当检测到赤身等不符合履行时,会出现一个新的弹出窗口。 用户不错径直向苹果公司叙述图片和视频,而苹果公司则不错将信息发送给关连部门。
当教育出当前,用户的缔造会准备一份叙述,其中包括任何膺惩性材料、材料前后发送的信息以及两个账户的探讨信息。 用户不错遴荐填写一份表格,确认发生了什么。
苹果公司收到叙述后,将对履行进行审查。 随后,该公司将对该帐户收受步履,包括禁用用户通过iMessage发送信息的功能,以及将该问题叙述给法律确认部门。
该功能咫尺行为 iOS 18.2 测试版的一部分在澳大利亚推出,但稍后将在寰宇推出。
正如《卫报》所指出的,苹果很可能遴荐澳大利亚,因为该国将条目公司在 2024 年底之前对云音讯干事中的残暴儿童和恐怖履行进行监管。
苹果公司教育说,该代码草案不会保护端到端加密,从而使用户的通讯容易受到大范围监控。 自 2018 年末以来,苹果公司一直公开反对此类致力。
苹果公司在其平台上措置儿童性残暴材料(CSAM)的口头受到了抨击。 最先,该公司被责骂莫得发达对待 CSAM 保护问题,这激愤了很多监督团体。
2021 年,苹果打算推出 CSAM 保护秩序,该秩序将扫描用户iCloud相片中已知的 CSAM 图像。 若是发现,苹果公司将对图像进行审查,然后将叙述发送至国度失散与被克扣儿童中心 (NCMEC)。
很多用户对苹果扫描其私东谈主图像和视频的思法暗意大怒,并惦记会被特殊检测到。 苹果公司最终毁掉了这一思法,根由是惦记扫描数据\"会为数据窃贼发现和欺诈新的恫吓载体\"。
2024 年,英国国度看管残暴儿童协会 (NSPCC) 暗意,在英国的苹果平台上发现的残暴图片案例比苹果在寰宇范围内叙述的案例还要多。