楼主:
sxy67230 (charlesgg)
2024-01-22 10:04:05※ 引述《windowhihi (こいしprpr)》之铭言:
: https://i.imgur.com/hPysBFF.png
: https://t.co/knwLJSRrRh
: 用Nightshade处理过的图,只要被别人拿去喂AI,
: 图就会把AI里面的模型破坏掉
: 图上会有痕迹但听说不太能看出来
这边要说明一下,所谓的喂AI指得是在训练模式下,阿肥稍微看了paper主要是透过微小
的相素变化产生的被下毒的图片影响基石模型中正常图片的高维空间分布,所以就可以让
生成模型你跟他说要产生哈士奇图他给你缅因猫,因为模型产生的高维空间分布已经被下
毒的图破坏了。
不过这只限于训练阶段,一但fixed住的模型就影响有限,论文的假设就是以后所有的创
作者都用这种方法加密图片来避免自己的图被喂进去训练,不过还是有一些办法像是阿肥
想到可以透过动量蒸馏的方式来处理掉有毒相素点,做模型产品前还是会对数据做一些检
测分析可以设计一些污染指标来监控。
所以道高一尺魔高一丈,对抗式生成就是大家互相比拼就有机会建构更好的生态链。