据可靠报道称,苹果计划开始在美国的 iPhone 上安装软件,该软件将自动扫描本地照片以查找虐待儿童的图像。 据报道,苹果只会扫描使用这项技术上传到 iCloud 的照片——至少一开始是这样。
更新: Apple 已在 一份详细的文件.
苹果在做什么?
苹果计划的报道起源于 金融时报 和约翰霍普金斯大学教授 马修·格林,两者都是普遍可靠的来源。 当然,在 Apple 确认情况属实之前,这种情况总有可能不会发生。 据报道,苹果本周早些时候向一些美国学者展示了该计划。
据报道,苹果将使用一个名为“neuralMatch”的系统来扫描美国 iPhone 上的虐待儿童图像。
从本质上讲,如果自动化系统认为检测到非法图像,它会提醒一组人工审核人员。 从那里,团队成员将审查图像并联系执法部门。
从技术上讲,这并不是什么新鲜事——基于云的照片存储系统和社交网络已经进行了这种扫描。 这里的不同之处在于 Apple 是在设备级别上做的。 根据 Matthew Green 的说法,它最初只会扫描上传到 iCloud 的照片,但它会在用户的手机上执行该扫描。 “最初”是那里的关键词,因为它可以很好地用于在某个时候在本地扫描所有照片。
这应该使系统的侵入性降低,因为扫描是在手机上完成的,并且只有在匹配时才会发回,这意味着并非您上传的每张照片都会受到陌生人的关注。
据参加简报会的人士称,每张上传到 iCloud 的照片都会获得一张“安全凭证”,说明它是否可疑。 当一定数量的图片被标记为可疑时,如果发现任何涉及虐待儿童的情况,Apple 将对其进行解密并将其发送给当局。
系统将如何区分虐待儿童图像和其他图像? 根据该报告,它已经在美国非营利性国家失踪和受剥削儿童中心收集的 200,000 张性虐待图像上进行了测试。
图片通过哈希转换成一串数字,然后与数据库中的图片进行比较。
在这一切都出来之后,苹果拒绝就正在发生的事情向《金融时报》发表评论。 但是,我们认为该公司正在制定一些官方声明,然后有关这一举措的消息就会失控。
这开创了一个危险的先例
我们可能不需要告诉你这有多可怕。 虐待儿童的人应该被抓住并受到惩罚,但很容易看出这样的事情如何被用于更具侵略性的目的。
类似的技术是否会在其他平台上推出,比如 Mac、Windows PC 和 Android 手机? 像中国这样的国家可以用它来检测其公民手机上的颠覆性图像吗? 如果它被广泛接受,版权行业能否在几年后开始扫描盗版内容?
而且,即使它像宣传的那样有效:Will 无辜的人 陷入交火?
希望这并不像看起来那样令人担忧。