黑客已经在欺骗苹果的 iPhone 照片扫描仪

关于 Apple 的 CSAM(儿童性虐待材料)扫描仪的讨论很多。 现在,扫描仪再次出现在新闻中,因为看起来黑客可能离欺骗 CSAM 扫描仪并制造误报更近了一步。

Apple 的 CSAM 扫描仪的问题

一种 Reddit 用户 做了一些逆向工程来了解 Apple 用于设备上 CSAM 检测的 NeuralHash 算法。 在这样做的过程中,他们发现哈希中可能存在冲突,这可能会产生误报。 一种 碰撞 是当两条数据具有相同的哈希值、校验和、指纹或加密摘要时发生的潜在冲突。

一位名叫 Cory Cornelius 的编码员制作了一个 算法中的碰撞,这意味着他们找到了两个创建相同哈希的图像。 这可用于创建误报,即使图像完全无害,也会将图像标记为 Apple 包含虐待儿童。

虽然这肯定不容易,但黑客有可能生成一个引发 CSAM 警报的图像,即使它不是 CSAM 图像。

Apple 确实有旨在确保误报不会导致问题的层。 为了 example,当图像被标记时,在将其发送给执法部门之前,必须由真实的人进行审查。 在达到这一点之前,黑客需要获得对 NCMEC 哈希数据库的访问权限,创建 30 个碰撞图像,然后将它们全部放到目标的手机上。


也就是说,这只是 Apple 的 CSAM 扫描仪出现的另一个问题。 已经存在巨大的反对意见,而且编码人员能够对其进行逆向工程这一事实已经非常令人担忧。 在代码公开后的几个小时内发现了一个碰撞,而不是需要几个月的时间才能弹出。 这很令人担忧。

苹果会做任何事吗?

只有时间才能证明 Apple 如何解决这种情况。 该公司可能会放弃使用 NeuralHash 算法的计划。 至少,该公司需要解决这种情况,因为人们对苹果的照片扫描计划的信心已经很低了。