Re: [AI] 用I2I和Tile放大来修细节或加东西

楼主: sudekoma (′・ω・`)   2023-09-13 03:03:09
提到加细节...(′・ω・`)一心想让环境更卷的细节狂来惹
总之按照惯例(?),先上图
https://pbs.twimg.com/media/F518sW7aYAEiCP0.jpg
https://pbs.twimg.com/media/F51_o0EaYAEAFL-.jpg
https://pbs.twimg.com/media/F51_o0FaYAAtrp8.jpg
这几张直出打底的t2i用了controlnet增加躁点,让算出来的图有更多细节。
优势在于比纯hires的效果更华丽,运算时间更短;
缺点则是不受控的盲盒性/瞎骰感/驾驶难度都更高了。
全无参考价值的咒语: 4girls, sitting, standing, sofa, lingerie
我没有加讨论群组,所以并不知道这套方式是不是老早传开了。
总之我最先是在日本网页上看到的 https://reurl.cc/1Ggo2p
原作者写得很简洁,理解有困难的话可以看解说影片(日文)
https://www.youtube.com/watch?v=TOq7tZgKFbQ
下面简单解释一下运作原理,早就会的人可以全部略过(′・ω・`)不重要
大家都知道SD的图是从躁点算出来的,但它自己从学习资料生出的躁点有限,
算小图躁点少,细节就少;算大图躁点多,成果却又容易走钟。
而这套方式的原理就是“利用controlnet在小图里导入更多躁点来帮助运算”,
让SD不用把版面拉大也能有更多细节。
首先,跟那位日本人提到的一样,要自己准备躁点图。
https://pbs.twimg.com/media/F52Exr-aYAEUHaU.png
https://pbs.twimg.com/media/F52ExsCaoAARjVf.png
https://pbs.twimg.com/media/F52ExsAaYAAhc8r.png
躁点色系会影响到成效,所以这部分得靠使用者自己的色感。
(′・ω・`)色感不行的就只好乱枪打鸟或抄别人作业
然后在t2i接口下打开controlnet,把躁点图喂进去,
功能选Lineart,preprocessor选none,model选Lineart_anime,
Weight 0.5,Starting Control Step 0.1,Ending Control Step 0.5,
704*576,20step的t2i打底图大致都是这个组态。数值再高容易走样,低了没效果。
算法建议选DPM系,其他种类的算法会有相冲而无效的状况。
Upscaler建议装4X-UltraSharp。
接着用同一组seed(3223880952)来比较一下运算时间与成效。
无hires,无躁点法(5.6秒)
https://pbs.twimg.com/media/F518sW_akAAgCtN.png
用hires,无躁点法(24.53秒)
https://pbs.twimg.com/media/F518sW7aYAA-nUU.jpg
无hires,用躁点法(6.23秒)
https://pbs.twimg.com/media/F518sW8aYAAN3GF.png
并用hires与躁点法(28.41秒)
https://pbs.twimg.com/media/F518sW7aYAEiCP0.jpg
单看时间会觉得用躁点法久了一点点,
但是只靠hires要算出近似的精细度非得把step提高、版面加大,
所以实质上是有节省到时间的。
(′・ω・`)然而这一样是在搞特技杂耍。
躁点图要跟算图主题的色系对上很难搞,吃个人的辨色能力及抽象逻辑,
而且跟大部分的角色LORA都相冲。
单纯算个花/内衣/建筑物勉强还行,人一多就容易配色炸开。
以MS来比喻的话类似托尔吉斯,只有特列斯那种天选之人能开得好。
窝是全部抄别人给的组态才试出几次成功的范例。
(′・ω・`)结论:你行你上
作者: marsman160 (马尔斯之风)   2023-09-13 04:30:00
细节方面好很多呢
作者: a000000000 (九个零喔)   2023-09-13 06:55:00
手指大崩坏
作者: kaori9993 (铁骑臣)   2023-09-13 08:45:00
用add-detail的LORA也可以达到类似效果,简单很多

Links booklink

Contact Us: admin [ a t ] ucptt.com