说到这个
现在法律有在保障“画风”吗?
假设我真的用手去单纯临摹画风这到底有没有违法?
如果没有的话假设我用AI学习绘师的画风
在产出完全不同的构图
这在法律上跟我用手做差在哪边?
画风有办法用法律保障吗?
※ 引述《midas82539 (喵)》之铭言:
: 其实这一块争议未来纳入管制的速度会比你想像的快。
: 因为目前在AI产图最大的问题,也就是直接干人家图、侵权抄袭、大量生产
: 卖钱的抄袭仔,以人类的标准来说在法律上本来就是违法禁止事项,
: 而现在不过就是有一群不会画画的人,利用AI做同样的侵权行为,
: 并抱持着"现在法律又没有管,而且就算管了,又抓地到我吗"的心态。
: 那么作为国家与公权力的回应就是会直接从源头管制,也就是直接根据AI立法
: 纳入监管,比如说现在欧盟正在做的事情:
: https://pse.is/4wwvgr
: The AI Act specifies requirements for developers of "foundation models" such
: as ChatGPT, including provisions to ensure that their training data doesn't
: violate copyright law.
: 即以源头的贩售/提供利用的AI模型公司他必须保证训练数据不得侵犯他人版权。
: 有些人可能认为:“啊你是要怎么抓我喂侵权图”
: 首先对于终端的使用者来说,你终究只是利用云端的模型而已。
: 就跟你现在用Google,不需要搜寻引擎背后的算法。
: 再来,直接干图模仿以模型的产制来说,就是
: "找出作品的生成特征并随机生成同样特征作品"。反过来说,也可以针对
: 你生成的随机图案,以及你喂在云端的训练集来比对出是否有利用版权图,
: 以及是否有统计显著的特征。这块完全就看模型要不要针对这块强化功能而已。
: 欧盟算是比较聪明的,因为他要求源头管制禁止训练集使用版权图资讯的话,
: 否则会禁止模型于该国加利用的话,那么像是其他遭受模仿仔干图的网站
: 也不用特地针对判定是否侵权而困扰了,因为举证的义务会直接转嫁到
: 提供ai模型算图的公司身上。
: 那么剩下的课题,还是会回归到你在原创图的创作经验,
: 而经验本身才是你利用模型的稀有财。
: 这样讲好了,你现在看到快泛滥的LORA模型生成的角色,似乎都会有很雷同的风格
: 这是因为真正懂Lora模型语言的人极少,大部分都是仅针对现有的模组以特定风格
: 为关键字随机生成的,我们就把它假设成一种"临摹"好了。
: 那么当市场充斥着大量雷同的临摹风格,那模型本身的商业价值会怎样?
: 答案是会贬值,除非你自己有绘画的创作经验,而且你也会用lora,
: 那你自己才可能摸索出新的能卖钱的模组,然后生成截然不同的风格。
: 然而对于完全不会画图,也其实不太会用LORA的人,他们在这两个专项都不会,
: 那他们能做什么?就是你现在看到的乱象:他们就不管直出,直接用洗版的方式
: 来生图,因为这样才可以有效地以量压制住其他竞争者的触击率。
: 然而价值本身还是由"人"来定的,所以当有劣币逐良币的问题时,
: 最终AI的滥用问题还是会被禁止跟列管,进而再把利用门槛拉高。
: 再加上法规已经开始禁止你干图了,那你要继续苟活,不是要从学模型开始,
: 就是回归到画画,而你要成功,以往你只要专注画画就好,但未来你很可能
: 还要多学会几个模型才行。所以在绘图艺术门槛来说,未来的门槛只会越来越高。
: 比如说20年前你不会电绘还好,但现在基本上你不学很难。
: 10年后你要靠画画为生,你可能就要被迫学一个语言还要订阅他们的专业版。
: 然后由于会模型的人变多、委托方已经预期你有AI能大量产图,
: 你的工作量会开始增加,但相对地,你的单件作品工资就会下滑,
: 因为你必须同样面对那些也会大量产图的模型竞争者的议价竞争。
: 结果来说,还是你现在看到的样子,你学了更多东西,但薪水没有增加。
: 而真正赚钱的则是那些拥有AI模型靠订阅就能吸血的公司,
: 可见的未来大概就是长这样。