楼主:
Satoman (沙陀曼)
2024-11-15 23:04:04※ 引述《mizuarashi (米兹阿拉西)》之铭言:
: 推特上有个日本绘师最近也用了浮水印,但用了之后追踪直接少了1000多人。
: https://i.imgur.com/knrf5g0.jpeg
: 因为他的浮水印是他家的猫
虽然知道这位画师应该是想玩梗和酸马斯克,但是这方法建议别用。
不能说完全无效,但是可以说微乎其微。
AI对于图片中的异物,也就是浮水印、签名、商标等等有很高的辨识力,
若是再加上提词区分的话,浮水印基本上是摆好看的。
我就直接用这案例,做个简单的实验当栗子。
我模仿这位画师,用素材网站随便抓来的猫猫图盖在图片上做一个风格Lora模型训练集,
底图则是我测试时用同一个模型产生,风格类似的AI废图,大概长这样:
https://iili.io/2AGKQgs.png
模拟一下实际使用情况,
训练的底模用Illustrious XL,然后再用noobAI来生图。
先测试一下没套风格模型,
也没有任何品质提词(Masterpiece等等)和负面提词生图的结果。
https://iili.io/2AGBD7a.png
然后我们套上用猫猫图训练的风格Lora模型后,用相同的提词跑第一张。
https://iili.io/2AGC4vs.png
欸,猫猫出来了。你看,很有用吧这招。
等等,相同参数我们再跑个几张。
https://iili.io/2AGx9hx.png
https://iili.io/2AGoyIj.png
https://iili.io/2AGxHLQ.png
猫猫没有每张图都出现,实际上是跑了30张图出现了8张猫猫图。
约1/3。
https://iili.io/2AGIBWv.png
1/3看起来已经很高了吧?是不是达到污染的目的了?
那我们加上品质提词试试看,就用我平常用的这组。
正面是
masterpiece,best quality,high quality, good quality very aesthetic,absurdres,
负面是
(bad quality,low quality,worst quality:1.4),bad anatomy,signature,watermark,
backlighting,shaded face,
产生的结果长这样:
https://iili.io/2AGAmp1.png
https://iili.io/2AGYP9V.png
https://iili.io/2AGaKVn.png
https://iili.io/2AGaFoX.png
还是有浮猫印,但是已经降低到30张只剩两张了。
而且如果有观察降躁细节的话,有时还可以看到猫猫被AI逐渐分解成背景的过程。
最后一步,在训练打标时有两个敏感度特别高的提词,分别是cat和too many。
我们把它丢到负面提词去做区隔。
https://iili.io/2AG182s.png
猫猫……倒了。
只要以简单以提词处理区隔,
这30张乍看之下被浮猫印盖得七零八落的图片也能被训练成一个正常的风格Lora模型。
有用,但就只有那么一点点。
这个Lora就只是不太能生成和猫有关的图片而已。
或许浮猫印还可以再强化,
例如分布随机化、加入狗狗鸟鸟龟龟兔兔等等,应该能让AI更混淆。
但扣除怒喷马斯克,引导粉丝去bluesky的宣示意味之外,
真的有必要花时间做这些事吗?
好像没有。
第一点。
马斯克就算用X上的资料训练AI,那这些浮猫印图片也只会是数亿张图片中的少少几张,
在没有特别针对学习(应该没有那么闲)的情况,
不管有猫没猫都不会在成品有任何肉眼可辨认的影响。
(而且我不相信只靠X就能搞出能用的模型,大概最终还是得去找类似LAION的数据库 ==)
第二点。
不是只有X在爬资料训练模型,他肯告诉你还算好的。
没有公开资料来源,连训练方都不知道自己到底拿了啥在训练的大模型比比皆是。
以上这还是用爬虫当前提。
假设有人想训练这位画师的画风模型Lora,那可能连爬虫都不用,
直接去bluesky拿图就好。
第三点,也是最重要的一点。
ACG画风的AI模型的直接资料来源不是推特或其他社交平台,
甚至有时候连Pixiv或deviantart等等投稿网站都不是。
事实上,自从NovelAI用爬虫爬了某个盗图网站训练出第一款普及的ACG画风模型以来,
那个盗图网站就一直是所有大型ACG风格模型的主要学习对象。
现今被称为“咒语”的标签式提词其实就是源自该网站对于图片的详细分类标签。
甚至,由于该网站有清楚的标示角色、作品、画师等资讯,
所以现今模型经过学习后也可以单纯靠输入上述资讯的提词来生成标签标注的图片。
至于盗图网站的图片哪来的?
很单纯,就只是使用者从各处的网站右键另存盘案再上传,然后再人工打上分类标签。
该网站也很清楚的将AI图从图库中区隔开来,
所以一直被视为“清洁”又有效的训练资料来源。
所以只要图片有上传到网络上,就有可能被人上传到该网站上,
然后再被AI模型所学习。
那该怎么办?浮水印又没啥用,难道画师就没有反制的方法吗?
也不能说没有,其实可以只上传在训练时会被剃除的图片来防爬虫。
因为大模型不可能像我搞Lora一样手搓调整训练集,
所以势必得用自动缩放调整图片大小和比例。
这其中就有一些图片被认为无益或是会污染资料而被剃除。
以能模仿画师画风的开源模型Illustrious-XL来讲,
他们公开的paper其实有讲了有三类图片会从训练集中被剃除。
1.太小的图片,未满768*768。
2.太大的图片,超过4000万像素。
3.比例太极端的图片,超过1:10。
简单来讲,太小AI可能不要,太大AI可能也不要,太长太宽AI也不要。
在我的认知无误的前提下,
与其上浮水印,不如单纯不要公开大小为768*768以上的图片就好。
由于AI训练的分辨率一直在拉高,已经从最早的512*512一路飙到有人在搞2048*2048,
因此避免上传大图理论上可以防一些爬虫。
或者上传版面尺寸比例超过1:10的图片,主要视觉部分不变,
其他版面拉空的部分看要塞猫猫还是狗狗,这样目前应该也能防一些爬虫。
当然,以上这都是防爬虫不防人手。
讲白点,就像看到好图右键一样。
真的像盗图网站那样用人力蒐集资料,或是爬虫饥不择食的话那是不能防的。
只是上述的图片处理方法理论上可以劝退,或污染某些比较随兴的Lora制作者的成果。
作者:
fman (fman)
2024-11-15 23:06:00专业推
好奇问 有的绘师不是用浮水印 而是用一种像是汽油彩虹的纹路去破坏图片 这样有用吗
作者: Vedfolnir (Vedfolnir) 2024-11-15 23:11:00
作者:
spfy (spfy)
2024-11-15 23:12:00印象很早就有人说过类似的内容
作者:
Qorqios (诗人Q)
2024-11-15 23:13:00@@
作者:
spfy (spfy)
2024-11-15 23:16:00但没持续关注AI绘图的人可能会漏掉
作者: lucky0417 (L.W) 2024-11-15 23:19:00
浮水印确实很好处理
我比较好奇盗图网站是指有些古老绘师甚至Pixiv,Twitter帐号都已消失都还找得到一些图的那些Y,K,D,S开头网站吗?另外有没有可能就算上传小图但爬资料的人用例如Waifu2x这种程式先算出较大的图再丢去做训练?
作者:
guogu 2024-11-15 23:28:00纹路那个是说glaze吧 那个有人专门写小程式把它去除这些手段主要都是防自动的 人手多的是方法绕
专业推,尤其是后半段真的很现实…这不是转到蓝天就能解决的
作者:
sokayha (sokayha)
2024-11-16 00:58:00那acg人物的图用人物当浮水印是不是就无敌了(?
作者:
lanjack (传说中的草食熊)
2024-11-16 06:28:00借题问,blue sky 除了r18设定开关之外还有什么吗?用了一两天我却什么露点图都挖不太到…以前推特里帐追一两个之后就越来越多能挖…下R18 tag出来的是满满的bl,有点难用…
作者:
k300plus (300plus)
2024-11-16 07:40:00大师
涨知识 但感觉现在这种生成式AI趋势 对创作者来说好吃亏 然后AI监管法规进度又很慢