Re: [闲聊] AI画图是不是大数据拼图?

楼主: meatybobby (Bobby)   2022-10-06 12:25:41
※ 引述《KyrieIrving1 (King of New York)》之铭言:
: 大家最近讨论的AI画图
: 我本来以为真的是AI汲取各种关键字
: 然后用算的方式算出图阵
: 看大家玩下来
: 比较像是AI去全球所有的图画数据库里面
: 用各种关键字的图去拼出一张新的图?
: 如果是算图 那真的是新创
: 可是如果是拼图 很容易发现到底从哪拼出来的吧
: 还是我理解有误
: AI画图是大数据拼图吗??
首先当然是算的
如果要从全球数据库找图再拼图 那硬盘空间跟运算时间都会非常惊人
从实际面来看很难做到像现在5秒就出一张图
再来是目前很红的Novel AI
目前画风统一程度确实不像一般Stable Difussion
比较有可能的是他有另外训练一个画风转换的模型
分两步骤 先是用SD生图 再丢到另外的模型做画风转换
当然这另外的画风模型 是另外请人画还是直接拿现成图就不知道了
而以技术层面来讲
Stable Difussion新提出的方法 跟以前比起来确实比较有争议
以前GAN的做法 并不会直接用原图训练生图AI(Generator)
而是另外训练一个判断AI(Discriminator) 负责判断哪些是"好"的图
生图AI会随机生图 根据是否能通过判断AI的标准 来调整自己
因此生图AI出来的图 是完全没看过或参考其他图的
虽然在判断AI那边还是拿了别人的图 但至少生图AI从来没参考过其他图
而新提出的Stable Difussion 则是在生图AI加了一个降噪(Denoising)的训练过程
生图AI的目的变成将噪点(latent noise)还原成一般图
而用来训练生图AI的资料 就是直接拿原图不断增加噪点 让AI学习如何去噪点
在训练的过程中就不免会学习到原图的特征
最后出来的效果很好 但就会有一些争议
最近效果也很好的DALL-E 2也用到了Difussion的概念
除非未来又能发展出不需要参考原图的技术 不然未来很难避免这类争议
学习现实物体的特征没什么争议 毕竟物体就是物体 其特征只是客观存在
但学习画作时 直接学习图画的特征
其中的骨架 笔触 光影 都是画家自身的技术 不是单纯的物体特征
而现今法律并没有保护这块
画风跟风格的模仿与致敬在ACG上也不少见 但也没听说过几个真的引起法律问题的
不过AI出现让门槛降低 未来要模仿他人画风变得相当容易
这部分自然就会引起不少争议
作者: yudofu (豆腐)   2022-10-06 12:28:00
最近在Twitter用stable fusion 画老婆的都是用特别的waifumodel 在画的吧
作者: FTS152 (FTS152)   2022-10-06 12:29:00
主要还是出在资料集的来源问题
作者: gogolct (無良企鵝狗)   2022-10-06 12:33:00
要真实一点的还是要换回原本的model 就是
作者: OlaOlaOlaOla (喔啦喔啦喔啦喔啦)   2022-10-06 12:33:00
我觉得现在部份人反感的原因是“感觉”抄太快了
作者: Splatoon   2022-10-06 12:34:00
自己抄可以,但AI抄的比我快,不行!!
作者: poeoe   2022-10-06 12:35:00
反正跟不上科技脚步的就是会被淘汰而已
作者: andy0481 (想吃比叡的咖哩)   2022-10-06 12:35:00
因为法律保障主观人格 你再怎样学习都会混入你的主观意识 喜欢大奶的跟小奶的学习同一张图会画出不同奶 但AI所谓的学习没有经过这种主观意识 很难直接套用
作者: Splatoon   2022-10-06 12:36:00
有经过使用者的主观意识阿
作者: andy0481 (想吃比叡的咖哩)   2022-10-06 12:37:00
那要看你觉得创作者主观创作跟调教者对AI生好的图进行主观评分 有没有等值了
作者: miyazakisun2 (hidetaka)   2022-10-06 12:40:00
原来是学去噪 那stable 这个有点偷吃步啊
作者: RabbitHorse (赤兔马)   2022-10-06 12:41:00
你真以为ai多厉害喔 有人用手绘就屌打了
作者: pikachu2421 (皮卡@めぐ民)   2022-10-06 12:45:00
Google的Imagen也是用diffusion model
作者: leo125160909 (中兴黄药师)   2022-10-06 12:49:00
讨论半天感觉一堆人根本不懂diffusion model在干嘛
作者: dbr623 (高机动钢球)   2022-10-06 13:23:00
因为人就算模仿他人即便门槛变低还是有学习门槛,学习过程还是会受个人差异有变动影响结果,但机械模仿是不一样路径,抽出来特征就不会动了
作者: yoyololicon (萝莉大好)   2022-10-06 15:30:00
胡乱解释 GAN跟diffusion 都有用到训练资料 什么GAN没有看过 不能只从架构上就以为是这样去理解
楼主: meatybobby (Bobby)   2022-10-06 15:39:00
我这边指得是传统Generator的input跟groun truth确实都没用到原始资料喔
作者: yoyololicon (萝莉大好)   2022-10-06 15:49:00
= =你没有理解 不是input output 没直接对在一起就不代表没看到backprop 回去的gradient 不可能不带有训练资料的资讯
楼主: meatybobby (Bobby)   2022-10-06 16:33:00
你可以想一下Generator的loss是什么 是让Discriminator判断他是真的 这里的Discriminator同样也没吃原图在用原图练Discriminator时 Generator参数是freeze的所以我才会说Generator没参考到原图因为就算是backprop的gradient也是根据Generator产的图去算的GAN的G跟D两边更新不是同时的 不然给G看原图资料Generator会太强

Links booklink

Contact Us: admin [ a t ] ucptt.com