[新闻] 检测CSAM的儿童安全算法NeuralHash可能被操纵?苹果回应:非

楼主: Lyeuiechang (誠誠小屁孩)   2021-08-19 15:59:47
1.原文连结:连结过长者请使用短网址。
https://www.cnbeta.com/articles/tech/1168037.htm
2.原文标题:标题须完整写出(否则依板规删除并水桶)。
检测CSAM的儿童安全算法NeuralHash可能被操纵?苹果回应:非同个版本
3.原文来源(媒体/作者):例:苹果日报/王大明(若无署名作者则不须)
cnBeta/cnBeta
4.原文内容:请刊登完整全文(否则依板规删除并水桶)。
2021年08月19日 09:39
开发者通过逆向编译,发现苹果用于检测 iCloud 照片中是否存在儿童性虐待材料
(CSAM) 的 NeuralHash 算法存在漏洞,可能会被黑客利用。开发者 Asuhariet Yvgar 表
示,他对隐藏代码的 iOS 14.3 中的 NeuralHash 算法进行了逆向工程,并用 Python 重
新构建了它。
https://i.imgur.com/RTF4Ooi.jpg
经过深入调查研究之后,他发现存在一个冲突可能,即两个不匹配的图像共享相同的哈希
值的问题。安全研究人员对这种可能性发出了警告,因为潜在的碰撞可能使 CSAM 系统被
利用。
在给 Motherboard 的一份声明中,苹果表示 Yvgar 逆向工程的 NeuralHash 版本与将用
于 CSAM 系统的最终实现不同。 苹果还表示,它已将该算法公开以供安全研究人员验证
,但还有第二个私有服务器端算法可以在超过阈值后验证 CSAM 匹配,以及人工验证。
然而,苹果在一封电子邮件中告诉 Motherboard, 用户在 GitHub 上分析的那个版本是
一个通用版本,而不是用于 iCloud 照片 CSAM 检测的最终版本。苹果表示,它还公开了
该算法。
苹果在一份支持文档中写道:“NeuralHash 算法 [...] 作为签名操作系统代码的一部
分 [并且] 安全研究人员可以验证它的行为是否符合描述”。苹果还表示,在用户通过
30 个匹配阈值后,运行在苹果服务器上的第二个非公开算法将检查结果。
5.心得/评论:内容须超过繁体中文30字(不含标点符号)。
MotherBoard 原文:https://tinyurl.com/32kvfjbm
r/Apple 讨论串:https://redd.it/p6zc2f
就目前资讯看来,苹果应该证实了 Github 那个 NerualHash 模型是真的,
只不过他们声称该模型不会是最终 iOS 15 释出时的最终版本,
同时在整个算法中,NerualHash 只是第一阶段,
进到 iCloud 之后还会有第二阶段的 Hashing 过程。
因此,即使在第一阶段产生大量刻意混淆系统的图片后,
在第二阶段系统将会把这些照片侦测出来,避免了误报的可能,
另外第二阶段的算法目前没有公开(有可能是 PhotoDNA?)。
苹果同时声称如果两道防线都被突破,
还有最后一道关卡会做人工审核。
楼主: Lyeuiechang (誠誠小屁孩)   2021-12-04 23:42:00
[新闻]有狼师一直戳女学森(.)(.)而被家长吉上法院...
作者: Xhocer (以前也很快樂)   2021-12-04 23:44:00
) (
作者: xj654m3 (卢鱼)   2021-12-04 23:46:00
( Y )
作者: Xhocer (以前也很快樂)   2021-12-04 23:48:00
\|/
作者: xj654m3 (卢鱼)   2021-12-05 00:47:00
(╮⊙▽⊙)ノ|||
楼主: Lyeuiechang (誠誠小屁孩)   2021-12-05 01:17:00
/|\╰╮o( ̄▽ ̄///)<
作者: LaserGunSpee (最速传说)   2021-08-19 19:56:00
人工审核 呵呵

Links booklink

Contact Us: admin [ a t ] ucptt.com