※ 引述《napacabbage (屁眼派对)》之铭言:
: 最近有点想来试试看欸
: 在pixiv看到一个超级厉害的
: 生成的图完全没有Ai的感觉
: 就是很好看的二次元色图
: 不过那个好像要自己训练模型的样子
: 感觉挺费时的
不费时,5分钟就能当大师 ==
: 有人推荐用什么模型吗?
: 大家都在用或很好用的模型
: 让我来训练甜点猫的色图
别人都帮你练好了,第一种方法直接去civitai当免费仔生 ==
1.去https://civitai.com/注册一个帐号,这个应该不用教 ==
2.点开旁边的眼球,点开所有的分级限制让你能看到色图和色模型
https://i.imgur.com/I4MgjLG.jpeg
3.去这个下面这个模型的页面
https://civitai.com/models/833294/noobai-xl-nai-xl
4.点Create,让他左边接口跑出来。
5.因为我们从页面进去的,模型已经帮我们选好了
https://i.imgur.com/17GHaqb.jpeg
直接开始写提词(咒语)。
https://i.imgur.com/kb4PYAM.jpeg
你要的这只提词大概是长这样:
kazusa \(blue archive\), animal ears, multicolored hair, black hair,
pantyhose, pink hair, colored inner hair, hooded jacket, short hair, hairclip, black choker, two-tone hair, black jacket, hood down,
long sleeves, miniskirt, pink eyes
要脱衣服或换衣服的话就留下头部以上特征的题词就好,项圈很重要留下来:
kazusa \(blue archive\), animal ears, multicolored hair, black hair,
pink hair, colored inner hair, short hair, hairclip, black choker,
two-tone hair,
简单测试一下特征都有抓到,没问题。
https://i.imgur.com/OigsVGu.jpeg
开始写正式的题词,
这些“没有Ai的感觉”的AI图其实就只是混了一大堆不同画师的画风,
特别是那些上色风格和笔触强烈的。
然后这种图目前比较少见,所以AI感才比较薄弱。
所以我随便抄别人的现成的题词混两个不同画师来张泳装,题词写成这样:
artist:hito_komoru, artist:rei_(sanbonzakura),kazusa \(blue archive\),
1girl, solo, animal ears, multicolored hair, black hair, pink hair,
colored inner hair, short hair, hair ornament, hairclip, black choker,
choker, looking at viewer, two-tone hair,standing, pink eyes, large breasts,
bikini, night pool ,wading,
负面题词写成这样,以后就不用动直接这套用到底:
sunlight, lowres, worst quality, bad quality, bad anatomy, jpeg artifacts,
signature, watermark
懒就直接把上面的复制贴上就好。
点开Advanced,参数照着下图填,我简单说明这些是干嘛用的,不懂也没差
https://i.imgur.com/TRynzrp.jpeg
Aspect Ratio
图的大小,单人图最好用默认的832*1216效果最好。
CFG Scale
让AI是否依照题词发挥的参数,越低越自由,越高越不自由。
通常都是填7刚刚好。
Sampler
取样器,也有人翻译成采样器。调整AI降躁过程用的。
原理不用懂,只要知道下面两种选择就好:
DPM++ 2M Karras最通用,Euler A生图很快但是有时候细节会缺失会错误。
就酱,其他的完全不重要,因为大家都只用这两个。
Steps
步数,就是让AI跑几步,越多步结果越精细或完整,但是有一定上限。
DPM++ 2M Karras可以设30步,Euler A可以设20甚至15步都有不错的效果。
不知道要填多少就25或30就好。
Seed
就随机种子,让他自己random就好。
如果你有一张中意的图片想调整细节在输入那张图片的种子。
6.来上VAE,这东西的原理要讲很久,你只要知道它的功能是加强或修正生图结果就好。
https://i.imgur.com/0k9tKAe.jpeg
点+之后输入SDXL,选第一个SDXL VAE就好。
这模型是SDXL衍伸的,所以我们就用这个。
https://i.imgur.com/kW55H11.jpeg
7.最后一步就这个Quantity,他只是让你决定一次生几张图。
免费仔最多一次4张,旁边会显示你生这张图会喷多少点,点下去等结果。
https://i.imgur.com/fsoTDHz.jpeg
8.结果就这样:
https://iili.io/2fCmLdv.jpg
第二种,去novelai当付费仔生,方法一样。
结果:
https://iili.io/2foovrx.png
感觉没上面的稳定。
第三种,本机Stable Diffusion自己生,建议12GB显存。
1.无敌懒人包,载下来点开来什么都会自己帮你装好。
https://github.com/EmpireMediaScience/A1111-Web-UI-Installer/releases
详尽一点看这篇,理论上应该没有更新到完全看不懂。
#1aRPdA3Y (Marginalman)
把刚刚的civitai模型载下来,模型和VAE都要,
模型丢到
A1111 Web UI Autoinstaller\stable-diffusion-webui\models\Stable-diffusion
这个资料夹里。
VAE则丢到
A1111 Web UI Autoinstaller\stable-diffusion-webui\models\VAE
参数照下面填。
https://i.imgur.com/bRCgCkn.jpeg
和线上生只差一个Hires.fix,功用是放大并修复图片细节。
之后点橘色大大的Generate,直接大爆生。
想要连续一直生可以拉高Batch count,代表生几次之后停止。
显卡很好可以拉高Batch size,代表一次生几张图。
结果:
https://iili.io/2foOphN.png
https://iili.io/2foOtkv.png
https://iili.io/2foOmIp.png
https://iili.io/2foODpR.png
https://iili.io/2foed4n.png
就这么简单 ==
另外有本机的可以装一个外挂Tagger,他可以帮你反推图片的题词。
https://i.imgur.com/XVy1GXJ.jpeg
大概就酱 ==