[情报] 苹果新的照片审查机制

楼主: ians0606 (THUNDER)   2021-08-06 09:42:27
请问苹果利用iCloud 来检查iPhone 使用者是否
持有儿童暴力相关照片(性暴力或是虐待),这样不会违反他们的初衷吗? 苹果一直以来都给人一种顾客隐私终于一切的感觉,而且这个审查机制难保不会无限上纲到别的领域,例如手机偷拍或是一些外流影片等等。此外文中有提到这个技术不是扫描整台手机,而是他们有个数据库会自动配对儿童暴力的照片,但我是满好奇在技术上是怎么做到这点的XD
原文:https://edition.cnn.com/2021/08/05/tech/apple-photos-child-abuse-imagery/index.html?utm_content=2021-08-06T00%3A31%3A14&utm_source=fbCNN&utm_medium=social&utm_term=link&fbclid=IwAR3WKxVEgloYfpoyR38IhbDL92tv9hia7J_fRKjCgNo5Fr5GNA24G4AuwlY
作者: e04bank (上海生奸汤包)   2021-08-06 09:43:00
不要问....很恐怖......
作者: corum68972 (Calxium)   2021-08-06 09:45:00
没记错的话google早就有对云端扫照片了
作者: roger840410 (roger)   2021-08-06 09:48:00
当然是找一堆儿童色情照来training (x
楼主: ians0606 (THUNDER)   2021-08-06 09:51:00
我也觉得是欸 因为要建立database首先就要找到那些儿童色情照片XD
作者: suichui (宜纳财)   2021-08-06 10:09:00
不知道二次元的算不算
作者: pm2001 (做个盾牌眼球兵吧)   2021-08-06 10:31:00
技术上哪有什么问题 就图样辨识阿
作者: Xperia (X霹雳鸭)   2021-08-06 10:47:00
https://bit.ly/3fD4lXz???还以为苹果一直是站在隐私至上的立场
作者: xBox1Pro (神鬼微软)   2021-08-06 11:01:00
这要跟我百度云上的h漫被删掉一样了
作者: PopeVic (ㄅㄧ)   2021-08-06 11:47:00
https://apple.co/3CnSJS8可以参考官方技术文件,苹果并不是单纯的用影像辨识的方式来侦测,而是在本机取得图片的 NeuralHash 值后再跟数据库中的 hash 值比对,且比对的动作也是在本机执行。比对的结果也会经过加密后才会上传到 iCloud,直到达到一定的阀值后苹果才会解密并回报给 NCMEC。https://i.imgur.com/viiNbdI.png
作者: LonyIce (小龙)   2021-08-06 11:52:00
自拍影片怕怕
作者: kyleJ (资工人)   2021-08-06 11:54:00
看起来是只针对上传到云端的照片检查?Google倒是先部署这个功能了#1W_UluK6 (Gossiping)
作者: pm2001 (做个盾牌眼球兵吧)   2021-08-06 11:54:00
一样阿 影像辨识原理也是取出特征再做比对
作者: sam613 (Hikaru)   2021-08-06 12:33:00
作者: gonna01 (Six)   2021-08-06 12:38:00
美国法规的规定吧
作者: chennylee809 (chenny)   2021-08-06 15:41:00
为了极少数的犯罪分子 监控全使用者既环保之后 隐私也变笑话了
作者: PweDiePot (pwe)   2021-08-06 16:17:00
影像辨识技术越来越强大了
作者: cmchiu (C.M.)   2021-08-06 17:18:00
这就影像辨识的其中一种...
作者: fufu8aa (run-man)   2021-08-06 18:27:00
只差在图片不会被真的上传
作者: cevs (cevs)   2021-08-06 18:34:00
笑了 还主打隐私
作者: dieangel006 (50TA)   2021-08-06 18:47:00
看个本子就出事了
作者: flosser (fllosser)   2021-08-06 19:21:00
跟中国网盘删掉我的A片库87%像。
作者: Bosung (不团结就毁灭)   2021-08-06 21:42:00
跟google云端一样吧
作者: ho83leo (LWHo)   2021-08-06 21:56:00
推Pop
作者: willschlafen (willschlafen)   2021-08-06 22:20:00
不是 要怎么知到是不是儿童的?
作者: LonyIce (小龙)   2021-08-06 22:41:00
先用一堆儿童犯罪图片让它学习就知道了
作者: PopeVic (ㄅㄧ)   2021-08-06 23:45:00
回36楼,这点就是差别之一,苹果并不是用分类模型来判断图片“像不像”儿童色情,神经网络只是用来提取图片特征值,再经过杂凑之后与“已知的”非法图片进行比对,所以判断的方式是看有无与已知的图片“近乎相似”。它的概念比较类似以图搜图,而不 google 相簿的场景辨识。故重点在于已知的数据库内容,理论上要明确被列入数据库的非法照片才会触发阀值。
作者: berserkman (to be brave)   2021-08-07 00:53:00
需要好好了解一下苹果和google照片辨识的差异
作者: fostertaz (Placebo Addict)   2021-08-07 06:14:00
结果一堆家长拍小孩游泳被误报就好笑了。
作者: Koibito (恋人)   2021-08-07 07:54:00
随便加个浮水印或裁一下边,照片Hash值应该就变了,无法辨识了吧?
作者: yahappy4u (yo ya ha)   2021-08-09 05:33:00
这真的有点难,隐私与儿童安全的拿捏但应该可以用不一样的方法维护儿童安全,不应这样侵害隐私
作者: neil25 (neil)   2021-08-11 09:28:00
发育不良的女朋友被当儿童 苹果认证了

Links booklink

Contact Us: admin [ a t ] ucptt.com