[讨论] Ai什么时候可以做动画??

楼主: krousxchen (城府很深)   2023-03-30 17:55:44
现在Ai绘图已经发展一段时间了,有没有公司开始发展Ai动画??
都能生成图画了,那么再多给一些咒语让图画动起来应该也是一个发展方向
要多高的分辨率跟FPS都可以靠Ai算出来
应该最快被取代的就是18禁动画,因为他们预算普遍偏低,画面品质也普遍不高
直接用Ai作画的话,成本就可以超级压缩
连配音也不用找了,直接用Ai
作者: sheng76314 (下雨天)   2023-03-30 17:56:00
已经有了
作者: Owada (大和田)   2023-03-30 17:56:00
已经有了
作者: allanbrook (翔)   2023-03-30 17:56:00
吹的会跟你说很快啦 一两年啦之类毫无建设性的幻想假设
作者: shawn1028 (阿璞)   2023-03-30 17:56:00
不是早就在用了吗
作者: eva05s (◎)   2023-03-30 17:57:00
已经有了,记得已经可以把真人画面直接转动画
作者: Owada (大和田)   2023-03-30 17:57:00
看上去很怪是很怪 但是要论有没有是有的
作者: allanbrook (翔)   2023-03-30 17:57:00
现在ai动画的逻辑大部分是批次处理影格加上滤镜式的方式
作者: acininder (InInder)   2023-03-30 17:58:00
txt2video学术进度上的确是约落后1-2年左右
作者: allanbrook (翔)   2023-03-30 17:58:00
除非有新的处理方式 不然这个方法要做你平常看的那种动画 工太繁琐了
作者: bluejark (蓝夹克)   2023-03-30 17:58:00
已经能做了啊 只是做的好的的不多
作者: astinky (此方のことが大好きだ!)   2023-03-30 17:58:00
现在就是动新闻水准的程度
作者: acininder (InInder)   2023-03-30 17:59:00
随着controlnet的进展 出现了另一条新路
作者: allanbrook (翔)   2023-03-30 17:59:00
好看的几乎都是已存在影片的滤镜处理的感觉而已
作者: rogerliu123 (奈特)   2023-03-30 18:00:00
作者: allanbrook (翔)   2023-03-30 18:00:00
但AI的可控性就没有那么精准
作者: acininder (InInder)   2023-03-30 18:00:00
Corridor Crew有在实作diffusion based的动画短片刚讲完就有人贴了 那我就不赘述了
作者: allanbrook (翔)   2023-03-30 18:01:00
上面那个影片就很明显 你就是要有原始的档案
作者: acininder (InInder)   2023-03-30 18:02:00
纯粹的txt2video可以追meta和google的进展这两家走最前面
作者: allanbrook (翔)   2023-03-30 18:04:00
不是 就是要嘛实拍影片 要嘛3d动画 只靠分镜他是不会动的
作者: astinky (此方のことが大好きだ!)   2023-03-30 18:04:00
原始的档案就是指已经完成的动画影片,丢给AI过个水就叫AI制作的动画这样
作者: acininder (InInder)   2023-03-30 18:04:00
举例来说你用恋活的骨架摆出一个短片后用diffusion渲染
作者: acininder (InInder)   2023-03-30 18:06:00
如果你想要的是 写一个剧本大纲 然后自动生成影片 这类的还在低分辨率发展 google前阵子的dev会议有展示
作者: abccbaandy (敏)   2023-03-30 18:06:00
先画本本再说吧...动画也太早
作者: allanbrook (翔)   2023-03-30 18:06:00
但认真来说这个方向要创作新内容我觉得完全是脱裤子放屁
作者: abccbaandy (敏)   2023-03-30 18:07:00
不过韩国条漫感觉有些像AI做的,剧情、画面都怪怪的
作者: bluejark (蓝夹克)   2023-03-30 18:07:00
用controlnet线稿还是骨架也能做但他会乱生图
作者: bluejark (蓝夹克)   2023-03-30 18:08:00
网络上可以看到很多垃圾动画会一直乱跳图的
作者: acininder (InInder)   2023-03-30 18:09:00
Google展示的一段叙述文章 然后产生约一分钟的影片 分辨率跟openai的初代dalle差不多 初代到今年约两年 当时dalle刚出时完全没人料想到分辨率和品质的进展会如此爆速所以要我推估的话 未来一到两年的确可能出现初具雏形的可用txt2video 而不是现在的拼接渲染歪路因为这技术是已经存在且有持续在发展的在txt2video分辨率提升至可用前 应该是controlnet base的作法会先支配领域一阵子分镜稿的方向就跟现在controlnet style比较接近两大路线之争 img2video 还是txt2video都有机构在做现在纯img2video已经可以做到类似哈利波特里报纸的那种感觉机构展示上像是让名画动起来
作者: arsl400 (dark hatter)   2023-03-30 18:34:00
不要瞎掰好吗?影像处理领先语言处理几十年,什么突然出来
楼主: krousxchen (城府很深)   2023-03-30 18:47:00
我知道啊,我只是说对于一般人来说是这样
作者: qq320 (QQ糖)   2023-03-30 19:17:00
推特上有一些专门在研究调教AI写实影片的 正以明显的速度在进步中 目前写实的K-pop跳舞短片 已经可以做到几乎没有跳图接缝的程度 但是很耗功夫调教跟吃背景(不能太复杂)而且这还是处在土法炼钢的现阶段 等未来更多插件或工具开发出来 做出好成品的门槛一定会愈来越低
作者: SALEENS7LM (我爱我婆,更爱你的)   2023-03-30 19:26:00
做可以啊,阿就烂又麻烦就是
作者: s9006512345 (lu00041561)   2023-03-30 19:58:00
现在ai动画真的要很好看的话,差不多跟直接拿mmd做一样麻烦,节省的也只是渲染环节,而mmd的渲染早就有一堆大佬弄好新手灌一灌就有80分。ai动画还是初期,再等两个月再回来问看看吧

Links booklink

Contact Us: admin [ a t ] ucptt.com