https://i.imgur.com/Iyu9H9B.png楼上 他有一个 threshold number基本上你要iCloud里面有一堆这种类型的照片超过那个 threshold number 他才会转人工检测一张两张 有可能是误判 可是你有100张都被确诊那就合理怀疑你是有问题的100只是我随便设一个 threshold number白皮书里面有说 他们不会去学习不在那个数据库内的特征很大程度要去降误差带来的问题你的儿童色情图片不在 CSAM 数据库中在苹果这套侦测机制下 是不会被抓出来的白皮书里面有写 误判率大概是 1 in 1 trillion他有说不会训练 CSAM 提供以外的CSAM 数据库基本上就是一个儿童色情犯罪的档案库你女儿的裸照并不会无缘无故被拿去训练除非你儿女的裸照曾经被用于犯罪用途才有机会被列进去 CSAM 数据库更正是 NCMEC 数据库然后 NCMEC 提供的貌似也只有 hashes 值而已所以很有可能 Apple 也碰不到原始图片using a database of known CSAM image hashes provided by NCMEC and other child-safety organizatio