1.媒体来源:
地球图辑队
2.记者署名:
阿雀
3.完整新闻标题:
打击儿童色情 Apple将自动过滤用户装置内的照片
4.完整新闻内文:
上周四,Apple宣布了其作业系统“iOS”和“iPadOS”的更新细节。其中,为了打击儿童色
情的自动过滤照片功能引发了争议——这到底是合理的管制,还是侵犯隐私呢?
自动检测有无儿童色情图片
上周四(5),Apple宣布旗下作业系统,即iPhone使用的“iOS”和iPad使用的“iPadOS”,
两者在未来的更新细节。
然而,美国地区的版本中,有一项自动扫描照片的功能却引发了争议——Apple将引入名为
“neuralMatch”的工具,让“neuralMatch”检测用户装置内有没有任何已知的儿童色情图
片。
这项技术让许多人产生质疑,这究竟是一项合理的管制手段,还是其实已经侵犯到用户的隐
私了呢?
注:针对儿童色情相关内容,英文有一专有名词为“child sexual abuse material”,缩
写为“CSAM”,直译即“儿童性虐待材料”,但本文将以“儿童色情”或“儿童色情照片”
简称之。
以人工的方式进行双重确认
在iPhone和iPad内建“neuralMatch”后,当用户的照片要自动储存至Apple的云端系统前,
这项工具会自动对档案进行检测,确认其中有没有任何内容与已知的儿童色情照片吻合。
如果出现一定数量的吻合结果,系统将自动回报结果,Apple则会以人工的方式进行双重确
认,如果真的是儿童色情照片,它们将封锁该用户,并通报执法单位。
与数据库中的照片进行比对
Apple表示,所谓的“neuralMatch”将是“新的密码学(cryptography)应用程式,能够帮助
遏止儿童色情在网络上散播,但同时兼顾用户的隐私”。
它们会和美国国家儿童失踪与受虐儿童援助中心(National Center for Missing and Explo
ited Children),以及其他儿童安全相关机构的数据库进行合作,让用户的照片与已知的儿
童色情照片进行比对。
但这些照片并不是以“照片”的形式执行检测,而是会先被转译成“杂凑值”(hashes),是
一种通常由随机字母和数字组成的代码。
即使编辑过也逃不掉
Apple指出,这项技术甚至可以抓到那些经过编辑的照片,无论是被裁切过、尺寸被调整,
又或是从彩色改为黑白,都通通逃不过杂凑值的比对。
而且Apple还强调,这个系统有着“极高的正确率,并确保每年只有不到一兆分之一的机会
,会错误地标记特定帐户”;同时,它们还声称,若是比起其他现有的技术,“neuralMatc
h”将能提供“极大”的隐私。
Apple:不会知道用户装置里有什么
也就是说,只要用户装置里没有儿童色情照片,Apple就不会知道里头的实际内容。
“如果你要储存一堆与儿童色情相关的照片,对,这对你来说十分糟糕。”Apple负责隐私
领域的软件经理纽恩史温德(Erik Neuenschwander)表示:“但对其他人来说,这不会产生
任何差别。”
“这将打开先例”
但即使Apple立下了如此的保证,还是有专家对此充满疑虑,担心这项技术经过扩展后,有
朝一日会用来扫描其他禁止的内容,又或是被威权国家利用,作为政治言论审查的工具。
例如约翰·霍普斯金大学(Johns Hopkins University)中,一名专攻资安领域的学者格林(M
atthew Green)就表示:“先不管Apple的长期计画是什么,它们发出了一个非常确切的讯号
:在它们(非常具有影响力的)言论中,建造一个检测用户手机有没有被禁止内容的系统,是
一件非常安全的事。”
“它们到底是对或错根本就不重要。这将打开先例——政府会要求所有人都这么做。”
有心人士利用系统陷害无辜的人?
格林提到:“Apple一直以来都对着全世界兜售自己的隐私功能,这让大家信任它们的装置.
.....但现在,它们基本上屈服在了每个政府可能会提出的最糟糕要求之下。我不知道从今
以后它们要如何(对政府)说不。”
同时,格林还指出一项隐忧:有心人士可能会利用这个系统陷害无辜的人,寄送看似无害,
但实际上经过设计、可以愚弄Apple算法的照片,并因此触发通报警告。
监测小孩有没有收到裸露照片
而且除了检测儿童色情照片以外,Apple还将开放另一个类似的功能。这只有开启“家人共
享”功能的家庭可以使用,如果家长选择开启的话,小孩的iPhone将会监测他们有没有接收
或传送包含裸露照片的讯息。
如果孩子接收到照片的话,照片会先进行模糊化处理,让孩子自行选择要不要查看,但若是
低于 13岁的孩子选择查看的话,家长将会收到系统的特别通知。
Apple表示,它们以保护用户隐私的方式设计了这项新功能,其中确保了Apple永远不会看到
或发现讯息中的裸露照片,扫瞄功能会在孩子的装置上直接完成,通知也只会发送到父母的
设备中。
加密的同时还是能识别里面的内容
但这点让资安专家格林也十分担忧,他认为如此的系统可能会被滥用,因为这等于是在向大
家表示,Apple可以在加密的情况下,依旧识别出你手机内的特定内容——但在此之前,App
le曾经跟政府宣称,加密使得它们无法获得特定数据。
“如果其他的政府要求Apple为了别的目的而使用这个系统,这该怎么办?”格林问:“App
le应该要说什么才好?”
然而Apple软件经理纽恩史温德驳斥了这些疑问,他表示Apple已经制定了防止系统被滥用的
保护措施,而且Apple也会拒绝政府任何的类似要求:“我们会告诉它们,我们并没有建造
出任何它们以为的东西。”
265件与2,030万件的对比
2019年,《纽约时报》曾发表一项调查报告,揭露了全球性的地下犯罪结构,显示在立法及
各项努力不足的情况下,儿童色情内容出现了爆炸性的增长。
调查中还指出,许多科技公司无法有效监控它们的平台,这等同于帮助那些色情内容被不断
复制和传播;同时,由于网络分享和下载的便利性,许多内容因此流传多年,持续为被拍摄
到的人带来创伤和困扰。
事实上,在美国的法律中,科技公司有义务要向当局回报儿童色情案件。但从历史纪录来看
,Apple的通报案例却远远少于其他公司,例如在美国国家儿童失踪与受虐儿童援助中心的
统计数据中,Apple去年仅回报了 265件案例,但作为对比,Facebook却回报了 2,030万件
。
而这样巨大的差距,便是因为Apple向来不愿意侵犯用户的私人领域,对类似的内容进行过
滤审查——直到现在,它们似乎终于要越过那道门槛。
公共安全与用户隐私的拿捏
但是,对于Apple本次更新的创举,也不是人人都采取反对的态度,而正向的回馈也显示出
了一点,也就是科技公司必须在协助加强公共安全及确保用户隐私之间拿捏分寸。
帮助开发早期杂凑函式技术的加州大学伯克利分校(University of California, Berkeley)
资讯工程教授法利德(Hany Farid)便表示,Apple的系统确实存在被滥用的可能性。
“是否有可能(被滥用)?当然,但我会担心这一点吗?不会。”但法利德指出,目前还有很
多应用程式也具有类似的机制,例如WhatsApp虽然有提供使用者端对端的加密措施以保护隐
私,可是也同时使用了一个监测恶意软件的系统,会在用户收到高风险连结时,警告他们不
要点开。
而且法利德还认为,如果是为了儿童安全的话,任何可能产生的风险其实都是值得的:“如
果有采取合理的保护措施的话,我认为这是利大于弊的。”
“或许可以挽救孩子的性命”
美国国国家儿童失踪与受虐儿童援助中心的总裁兼执行长克拉克(John Clark)也赞扬了Appl
e这次的改变,他在声明中指出:“Apple扩大了对儿童的保护措施,这改变了游戏规则....
..在这么多人使用Apple产品的情况下,这些新的安全措施或许可以挽救孩子的性命。”
“我们为Apple鼓掌,并期待能够和它们一起合作,让这个世界变成一个对儿童来说更加安
全的地方。”
5.完整新闻连结 (或短网址):
https://dq.yam.com/post.php?id=14168
6.备注:
靠北,这样二次元宅宅会不会被误杀?
熊猫、推特、P网下载的老婆图片被苹果偷看?