Re: [闲聊] Ai 快要可以做动画了?

楼主: attacksoil (击壤)   2023-03-11 07:41:46
刚刚看到版友推这个
https://youtu.be/RO7TYfMyPPw
如果我理解无误
代表只要给它剪影动画 还有一个认识角色的模型 就可以生成动画
如果效果再稳定一点
这样已经很省工了吧
最近也有看到用mobilepose控制stable diffusion 的文章
作者: x2159679 ((● ω ●))   2023-03-11 07:48:00
是的 大胆预言未来由于动画制作成本大幅降低动画界将迎来一个全盛期我们每季都会有数十部 不 百部以上的动画可以看满意了吗
作者: kasim15   2023-03-11 08:01:00
满意
作者: arrenwu (键盘的战鬼)   2023-03-11 08:06:00
省工?
作者: cat5672 (尾行)   2023-03-11 08:08:00
这应该还是很复杂的 就跟用live2d或mmd做出某些很实用的场景姿势画面 也和做整部动画是两回事
作者: miha80425 (ohsialay)   2023-03-11 08:22:00
一直都在技术演进阿 CY就是业界动作捕捉顶尖可以用在跳舞不需要全靠动画产现在还有家用3D 跟4 5年前Live2D已经差多了
作者: adgk1213cyc (米勒)   2023-03-11 08:26:00
恭喜你理解有误
楼主: attacksoil (击壤)   2023-03-11 08:31:00
请问有误在哪? 是否搞错什么
作者: NEKOWORKi (猫工)   2023-03-11 08:34:00
[形] 节省人工、人力,也可用在省事。 教育部网站
作者: ILoveOppai (爱欧派)   2023-03-11 08:37:00
我只是看到东方
作者: gbdt (闲逛)   2023-03-11 08:44:00
https://reurl.cc/Rvzg5r (FB影片) 比较接近的是这个吧
作者: Jiajun0724 (川崎忍者)   2023-03-11 08:47:00
也只能二创 难道你原创还要搞个影片再用ai算吗
楼主: attacksoil (击壤)   2023-03-11 08:48:00
楼上就是用mobilepose控制stable diffusion啊但我觉得bad apple这个特别的是 有限定东方角色只需要骨架 不需要影片
作者: AustinPowers (Yeah~baby Yeah~~)   2023-03-11 08:50:00
电脑还有得学啦,等到动作技术成熟,用AI生成流畅的动作(更甚之还得符合动画语法),才能直接套在3D骨架
作者: arrenwu (键盘的战鬼)   2023-03-11 08:59:00
不如这样问好了:你怎么用这个达成省工的?
作者: SALEENS7LM (我爱我婆,更爱你的)   2023-03-11 09:00:00
3D已经够用了
作者: arrenwu (键盘的战鬼)   2023-03-11 09:00:00
这个要修改看起来没有比较容易啊
作者: AustinPowers (Yeah~baby Yeah~~)   2023-03-11 09:02:00
这影片比较像机器人梦境,印象派
作者: EXIONG (E雄)   2023-03-11 09:18:00
3D比2D便宜多了
作者: s9006512345 (lu00041561)   2023-03-11 09:20:00
现在最新的是这个http://b23.tv/ajFqXGu无渲染粗模3d转2d
作者: philip81501 (笑口常开0口0)   2023-03-11 09:24:00
不就很多图连在一起而已??
作者: reader2714 (无毁的湖光)   2023-03-11 09:39:00
动画就是很多图连在一起啊
作者: holycity (迪儿~)   2023-03-11 09:50:00
这已经吊打1930年代米老鼠黑白动画了
作者: arrenwu (键盘的战鬼)   2023-03-11 10:22:00
https://youtu.be/3hoThry5WsY 是被1930米老鼠动画屌打
作者: SALEENS7LM (我爱我婆,更爱你的)   2023-03-11 10:24:00
以前的迪士尼动画真的很鬼
作者: arrenwu (键盘的战鬼)   2023-03-11 10:25:00
那动画现在看还是满好看的XD
作者: funofHD (天地重钱钱当先)   2023-03-11 10:57:00
动画要有背景,光正确透视就难到不行了,分镜也都是不连续有节奏跟断点的,顶多拿来参考好用,要当真的动画还早现在颜色也不一定是对的,线条也不连续,要怎么当真的动画
作者: Meuf (Milk Egg pUFf)   2023-03-11 11:19:00
用英文的看不懂右上角水印不知道要怎么找资料就算了你用中文的明明搜一下就可以看的原制作者的说明了……复制说明过来:这是用NovelAI的img2img功能生成的,每帧画面的prompt均为DeepDanbooru识别(取0.75概率以上的输出),为保证画面一致性,设置前后帧之间seed差为1,全影片seed差最大为200。由于是自动识别画面内容,因此会出现画错了或者画崩了这种情况(手动生成可以一直抽卡抽到满意,但是太耗时)。整个影片一共37674帧(编辑前),生成共耗时1:18:18(硬件:i9-12900K, 32GB DDR5 4800Hz, RTX 3090)
楼主: attacksoil (击壤)   2023-03-11 11:47:00
感谢楼上分享 但不知道你是想表达什么?
作者: BITMajo (BITMajo)   2023-03-11 12:01:00
这影片感觉就是用MMD版Bad Apple弄的吧...用3D动画成品去生成2D动画,Genius,真他妈天才
作者: Meuf (Milk Egg pUFf)   2023-03-11 12:03:00
原文影片单纯使用img2img,如果是像你说的只需要骨架,至少也用个control net吧。我不知道某楼是不是基于这个理由嘘你但你的理解的确有哪里怪怪的
作者: BITMajo (BITMajo)   2023-03-11 12:09:00
所以AI玩家为了好玩做了出来,然后有人当真(?)了这究竟是人性的扭曲还是社会的腐败
作者: Innofance (Innofance)   2023-03-11 12:33:00
你只用control net骨架的话你还得先训练模型,不然你角色做出来就算同角色差异依然会很大,然后还得请3D动画师做3D动画或是花大钱架动补,再一张张生成。每一帧生成出来之后,还得要在没有图层的情况下去修正每一张画面的抖动感i2i都会有细节差异了
作者: arrenwu (键盘的战鬼)   2023-03-11 12:40:00
成品看起来有很大的改善空间没错工具部分不知道训练起来会花多少时间目前这情况有点像是在反应ML模糊比对的特质
作者: Meuf (Milk Egg pUFf)   2023-03-11 12:47:00
https://www.nicovideo.jp/watch/sm41473071有看到另一个应该也是想处理画面抖动感的,不过结果上只能说还有很大的进步空间XD果然还是从增进AI绘制角色的稳定度下手比较治本
作者: theskyofblue (天空蓝)   2023-03-11 14:48:00
那是之前的吧 现在愿意花时间可以做出脸不太会坏的

Links booklink

Contact Us: admin [ a t ] ucptt.com