虽然下了很农场的标题
但这一篇认真的研究论文
大家或许以为AI跟色图很遥远 但事实真的是这样吗
在一年前可能没有错 但经过最近的突飞猛进
故事已经进入了新的转捩点
让我们欢迎今天的两个主角
1. 由好心人士在四个A100跟一个小的 Danbooru dataset
在 stable diffusion 经过“不到一天”fine tune完成的 waifu diffusion
https://huggingface.co/hakurei/waifu-diffusion
2. 怕你不会下 prompt 叫你给图片直接帮你学习文字 embedding 的 textual inversion
https://github.com/rinongal/textual_inversion
先聊聊限制
首先很明显 这么模型可能根本没看过ACG的色图
也就是只能用真人了解色的概念 在生成偏向全身图片的时候
比例容易受到影响造成换脸效果
再来就是用 textual inversion 只能给予极少张图学习固定概念
因为没有对于学习概念专门的处理
能学到的东西不一定是你想要的
再来是结果 我们当然不能在这里贴色图
但大家不妨体会一下这套模型能做到什么什么程度