[情报] 苹果高管承认儿童安全功能让用户混淆 并透露相关保障措施新

楼主: Lyeuiechang (誠誠小屁孩)   2021-08-14 21:07:02
【情报来源】
cnBeta/cnBeta
原网址:https://www.cnbeta.com/articles/tech/1166001.htm
(原始未删减的网址)
【情报内容】
苹果高管承认儿童安全功能让用户混淆 并透露相关保障措施新细节
2021年08月14日 01:53
苹果公司软件工程高级副总裁Craig Federighi今天在接受《华尔街日报》的重要采访时
,为该公司计画中有争议的儿童安全功能进行了辩护,透露了一些关于苹果公司扫描使用
者照片库中的儿童性虐待材料(CSAM)保障措施的新细节。
Craig Federighi承认,苹果在上周宣布这两项新功能时处理得不好,这两项功能涉及检
测儿童资讯中的明确内容和存储在iCloud照片库中的CSAM内容,并承认围绕这些工具存在
广泛的混淆。很明显,很多资讯在如何理解方面被搞得很乱,苹果希望可以更加清楚地向
用户进行说明。
https://i.imgur.com/MvArKoD.png
事后看来,在同一时间推出这两个功能是造成这种混乱的主要原因。苹果推出的通信安全
功能意味着,如果儿童通过iMessage发送或接收露骨的图像,他们在查看之前会得到警告
,图像会被模糊,并且会有一个选项让他们的父母得到提醒。另一方面,CSAM扫描则试图
在上传到iCloud之前,将用户的照片与已知CSAM的散列图像进行匹配。检测到CSAM的帐户
将接受苹果公司的人工审查,并可能被报告给美国国家失踪和被剥削儿童中心(NCMEC)

这些新功能受到了来自用户、安全研究人员、电子前沿基金会(EFF)和爱德华斯诺登的
大量批评,甚至是苹果员工的批评。在这些批评声中,Craig Federighi解决了其中一个
主要的关注领域,强调苹果的系统将受到保护,防止被政府或其他协力厂商利用,并有多
层次的可审计性。
Craig Federighi还透露了围绕该系统保障措施的一些新细节,例如,使用者需要在其照
片库中满足约30个CSAM内容的匹配,苹果才会被提醒,届时它将确认这些图像是否是CSAM
的真实实例。如果而且只有当用户达到30张已知儿童色情图片的匹配门槛时,苹果才会知
道使用者的帐户和这些图片的情况,而且在这一点上,苹果只知道这些图片,不知道使用
者的任何其他图片。
Craig Federighi还指出了将匹配过程直接放在iPhone上的安全优势,而不是发生在
iCloud的服务器上。因为它在手机上,安全研究人员能够不断研究苹果手机软件中发生了
什么。因此,如果做出任何改变,以某种方式扩大这个范围,安全研究人员就会及时发现

当被问及用于匹配使用者设备上CSAM内容的图像数据库是否会插入其他材料(如政治内容
)而受到影响时,Craig Federighi解释说,该数据库是由多个儿童安全性群组织的图像
构建的,其中至少有两个是在不同的司法管辖区。据Craig Federighi称,这些儿童保护
组织以及一个独立的审计机构将能够核实图像数据库只包括来自这些实体的内容。
楼主: Lyeuiechang (誠誠小屁孩)   2021-12-04 23:42:00
[新闻]有狼师一直戳女学森(.)(.)而被家长吉上法院...
作者: Xhocer (以前也很快樂)   2021-12-04 23:44:00
) (
作者: xj654m3 (卢鱼)   2021-12-04 23:46:00
( Y )
作者: Xhocer (以前也很快樂)   2021-12-04 23:48:00
\|/
作者: xj654m3 (卢鱼)   2021-12-05 00:47:00
(╮⊙▽⊙)ノ|||
楼主: Lyeuiechang (誠誠小屁孩)   2021-12-05 01:17:00
/|\╰╮o( ̄▽ ̄///)<
作者: MonkeyCL (猴总召)   2021-08-14 23:37:00
谢谢苹果坚持捍卫用户隐私的决心

Links booklink

Contact Us: admin [ a t ] ucptt.com