嗨又是我XDD,因为苹果释出了一份新的说明文件,正好解释了一些我上一篇
文章中尚待厘清的问题,所以再写一篇文与板友分享与讨论~
注:以下内容皆是我个人对于文件的解读,完整的资讯请参考官方文件,且
如有说错的地方也请不吝指教!
https://www.apple.com/child-safety/pdf/Security_Threat_Model_Review
_of_Apple_Child_Safety_Features.pdf
https://apple.co/3g2COix
Q1. 没有上传到 icloud 的照片是否也会被扫描?
A1. 不会,只要没有开启 icloud photo,手机就不会对任何照片进行扫描,
也就是不会运用手机资源进行任何的 Neural Hash 运算与比对。
Q2. 苹果凭什么用消费者的手机资源进行运算扫描?
A2. 如同 Q1,只有上传到 icloud 的照片才会被扫描,所以苹果并不是为了
扫描用户的“本机照片”,而是为了扫描“icloud上的照片”。如同其他云
端服务商也会扫描储存在该公司服务器内的图片,但这个做法差别在于将扫
描的动作放在本机执行,而不是上传到云端后才扫描明文图片。
Q3. 数据库的内容是怎么产生的?
A3. 这题大概是整个机制中数一数二重要的问题,因为匹配与否的关键就在
于数据库的内容。根据文件的说法,儿童色情图片并非由苹果持有,数据库
内所有杂凑资料都是由 NCMEC 等其他各国的非政府组织所运算,再将杂凑资
料交给苹果。然而,重点在于苹果在取得各组织所提供的杂凑资料后会对各
组织的资料取“交集”,也就是说,除非照片“同时”出现在每个非政府组
织所提供的资料里面,不然不会被苹果纳为数据库的图片。 值得注意的
是,至少会有两个以上的组织提供资料给苹果,且各组织属于不同的主权
管辖区(sovereign jurisdictions),换句话说,每个组织是受不同政府所
监管。所以既使单一或少数政府迫使该国组织偷加入指定图片,也会在取交
集时而被剔除。
Q4. 由于比对的动作是在本机进行,故本机会有一组加密的数据库。那资料
库是如何发布到使用者的设备?
A4. 根据文件,加密的数据库会是作业系统的一部份,所以仅能透过系统更
新的方式安装/发布到使用者的设备,无法通过网络或任何其他机制单独下载
或更新数据库。苹果(宣称)对于全世界使用者部署同一套作业系统,所以
无法针对任何单一/部份用户更新或安装不同的数据库。另外,苹果会为资料
库产生一个根杂凑值(root hash),不同的数据库内容会产生不同的 root
hash,这个杂凑值会纪录在公开的文件与使用者的设备中,故使用者可以在
设备的设定中找到这个杂凑值并与公开的数值进行比对与确认。而至于这个
根杂凑值可以由第三方的技术人员审核是否真的是由未经窜改的数据库所产
生。
Q5. 虽然数据库的来源并非苹果,但苹果是否能自行或受迫加入其他的图片
?
A5. 这题也是 well yes but actully no XD,苹果确实可以在取得交集结果
后自行加入其他的图片,但如上题所述,所有发布到使用者设备的数据库都
会先产生一组 root hash,第三方技术审查员可以检视并验证该杂凑值是否
由未经窜改的数据库所产生,且所有提供数据库的非政府组织可以检验取交
集后的数据库内容是否正确。
Q6. 帐户只有在超过一定的阈值(threshold)时才会被标记并解密,那么阈值
究竟是多少?
A6. 先讲结论,目前的默认的阈值是30张。阈值的由来关系到机率与统
计,不是我熟悉的东西,所以建议直接看官方的文件(P.10),以下是我粗略
的整理。上一篇文有提到,每个帐户被误判的机率是一兆分之一(注意这边指
的是每个帐户,而不是每张照片误判的机率),而这个机率并不是直接实验得
来的,而是苹果希望达到的目标,看到这里可能会觉得很荒谬XD,不过这是
决定阈值的关键。首先苹果做了两次实验,一次是用这个机制进行了一亿次
的图片比对,总共出现了3次的误判(false positive)。而另外一个实验有点
有趣XD,苹果直接用50万张成人色情图片进行比对,结果没有任何误判(图
片怎么来的不好说www)。总之根据第一个实验结果,图片误判的机率是一亿
分之三。而当然实验不代表真正的机率,因此苹果并没有直接用这个数值去
计算,而是假设在最坏的情况下真实的机率值大于实验值两个数量级,也就
是一百万分之一。所以在这个假设的前提下,苹果估算至少要30张照片被误
判时才能够达到每个帐户误判率一兆分之一的目标。值得注意的是,阈值并
不是固定的,会根据部署后的实际统计资料而进行微调。
Q7. 人工审核是如何进行?
A7. 当阀值超过时,苹果会解密 matched 的照片并再做一次扫描判断,若复
审的结果仍超过阀值便会交由人工审查。审查员能够看到低分辨率版本的图
片,不过审查员只能回报该图片是否为儿童色情,不会回报任何其他资讯。
但很遗憾的,只要到人工审核的阶段,即便是误判的照片也会被审查员检视
,所以如果不想冒任何的风险,建议关闭 icloud photos 备份。