[闲聊] 推特:防止AI学习绘师作品的方法

楼主: gundamx7812 (台湾没人看足球)   2022-10-07 15:17:24
就是在作品图中加入人类肉眼难以辨识的噪声
https://i.imgur.com/PBBbNRA.jpg
https://twitter.com/Akihitweet/status/1577827240330809344?t=FOSz6UZh2oyMsStXJ8LE
Zg&s=19
不过回复里也有人说有技术可以克服噪声问题就是了
延伸阅读:如何欺骗AI
https://youtu.be/YXy6oX1iNoA
作者: diabolica (打回大師再改ID)   2022-10-07 15:18:00
如何欺骗人类
作者: D2Diyus (想买的书太多了)   2022-10-07 15:18:00
这真的比较是在欺负盗图仔肉眼w
作者: b2202761 (岚水滴)   2022-10-07 15:19:00
就只不过是在抓图时候多一道删除噪声的步骤
作者: Nuey (不要鬧了好暴)   2022-10-07 15:19:00
就多一道工序而已== 哪有差你不如整张图都打上马赛克还比较有用
作者: holiybo (米罗)   2022-10-07 15:19:00
这是不是跟防b站盗片是同一个原理
作者: aqswde12349 (Last Embryo)   2022-10-07 15:20:00
这跟加浮水印一样没屁用吧,又不是不能去除掉
作者: hami831904 (士司P)   2022-10-07 15:20:00
在色图加入噪声→古典制约导致性奋与噪声连结→未来光看噪声就可以射
作者: k960608 (雾羽‧浪沙)   2022-10-07 15:20:00
这就上锁的概念 总会有拆锁专家
作者: Bugquan (靠近边缘)   2022-10-07 15:21:00
人眼不能辨别,但是AI勒?
作者: k960608 (雾羽‧浪沙)   2022-10-07 15:21:00
但是上锁可以防止很多低等ai也是事实
作者: mikeneko (三毛猫)   2022-10-07 15:21:00
建议加上防支咒
作者: joseph93234 (justrelax)   2022-10-07 15:21:00
adversarial perturbation
作者: k960608 (雾羽‧浪沙)   2022-10-07 15:22:00
人眼不能辨识=我可以正常尻 ai会辨识=ai会得到跟我们不一样的资讯 这样有没有看懂
作者: pikachu2421 (皮卡@めぐ民)   2022-10-07 15:22:00
实际上根本不同类型的AI 不会有什么效果
作者: minoru04 (华山派巴麻美)   2022-10-07 15:23:00
跟以前看到锁码台噪声画面就勃起一样
作者: oldriver (oldriver)   2022-10-07 15:23:00
AI看得懂=AI可以把它挑出来去掉 多一道工而已
作者: phoenix286 (团子大家族)   2022-10-07 15:24:00
AI在读样本时不会做滤波吗?
作者: forb9823018 (风过无痕)   2022-10-07 15:24:00
单张图识别物件才有用
作者: sameber520 (请给我萝莉)   2022-10-07 15:25:00
只有一招 那就是拒绝交流 但肯定不值得
作者: a43164910 (寺杉伊六)   2022-10-07 15:25:00
有人觉得只有他看得懂欸 笑死
作者: geniuseric (很少上批踢踢)   2022-10-07 15:25:00
偷放维尼和绿色母狗呢
作者: lay10521 (小伊达)   2022-10-07 15:25:00
可以做到原图相似度97%以上 但肉眼看不出来
作者: moritsune (君をのせて)   2022-10-07 15:25:00
早在让AI画图前这类去噪声的研究就已经做几十年了
作者: LLSGG (西西西瓜)   2022-10-07 15:26:00
这史前论文我觉得已经解决了啦
作者: haha98 (口合口合九十八)   2022-10-07 15:27:00
以前gan红的时候gradient adversarial 就一堆了已知用火
作者: csvt32745 (圆仔)   2022-10-07 15:27:00
作者: vios10009 (vios10009)   2022-10-07 15:27:00
你各位知道为什么中国转贴的图片很多品质差又有噪声了吧,那是为了防盗啦
作者: k0942588 (Oort)   2022-10-07 15:27:00
这只能防到很低阶的model吧
作者: sameber520 (请给我萝莉)   2022-10-07 15:27:00
以前怎么防骇客 直接物理分隔系统不连网 同一招
作者: kinghtt (万年潜水伕)   2022-10-07 15:27:00
达文西领先业界500年...
作者: franktpmvu (fch)   2022-10-07 15:28:00
这个是辨识用的模型 跟生成用的模型罩门不一样 辨识模型可能因为加一点噪声就认错物体 但加了噪声的熊猫在生成模型一样会产生加了噪声的熊猫
作者: qxpbyd (qxpbyd)   2022-10-07 15:28:00
https://i.imgur.com/VyHLRzb.jpg 抱歉 随便找就一篇还原
作者: smart0eddie (smart0eddie)   2022-10-07 15:28:00
这种东西换个model就没屁用了
作者: k960608 (雾羽‧浪沙)   2022-10-07 15:28:00
没错 最强的锁就是连门都没有
作者: k960608 (雾羽‧浪沙)   2022-10-07 15:29:00
其实你各位每次输入的验证码就是在帮ai识别啦
作者: csvt32745 (圆仔)   2022-10-07 15:29:00
生成模型上不知道有没有用就是XD
作者: qxpbyd (qxpbyd)   2022-10-07 15:29:00
而且那是影响分类问题 不知道对生成模型是有什么影响
作者: swear01 (swear)   2022-10-07 15:29:00
这个没用啦 李弘毅前几天在讲transfer learning的时候才讲过这个,那里的研究原因是训练出来的AI模型要防盗,结论却是在肉眼看不出来的噪声下,AI因为减少了Overfitting反而效果更好
作者: Annulene (tokser)   2022-10-07 15:29:00
看着蛮搞笑的 已经不知道安怎了..
作者: haha98 (口合口合九十八)   2022-10-07 15:29:00
你攻击gan可能还有点机会 但是现在红的是diffusion
作者: asd8569741 (奇负零)   2022-10-07 15:30:00
SD本身就是建立在去噪的模型,这种防御方式会有用吗
作者: smart0eddie (smart0eddie)   2022-10-07 15:30:00
diffusion 就是在去噪声的==
作者: qxpbyd (qxpbyd)   2022-10-07 15:30:00
GAN有分类器 扩散模型没有
作者: IntelG4560 (英特尔G4560)   2022-10-07 15:31:00
Difussion好像就是用加噪声去噪声的方式训练的,怀疑这个方法有效性
作者: haha98 (口合口合九十八)   2022-10-07 15:33:00
建议可以先去看几门开放式课程再来
作者: milk830122 (SuperX)   2022-10-07 15:34:00
绘师在这方面那比得过真正的工程师 耍小聪明哪有用
作者: e446582284 (ef225633)   2022-10-07 15:34:00
用AI的方法对抗AI? 脑洞真大,多一道工而已,连游戏DRM 都挡不住骇客,你才图片是要挡什么
作者: Mchord (Mchord)   2022-10-07 15:34:00
这方法完全无效,不用幻想了
作者: sameber520 (请给我萝莉)   2022-10-07 15:34:00
不要自以为能在技术上取巧 技术一年可能好几次大改
作者: Mchord (Mchord)   2022-10-07 15:35:00
你如果加了噪声图好看那train下去一样会生出好看的东西
作者: tim910282 (tim)   2022-10-07 15:36:00
那就只好生出产生噪声的AI了
作者: sameber520 (请给我萝莉)   2022-10-07 15:36:00
这么想防 那就是从现在开始都别放图
作者: mapulcatt (cosi fun tutte)   2022-10-07 15:36:00
工程师:已知用火
作者: shadowblade (影刃)   2022-10-07 15:36:00
影像处理早就能搞定这种东西了
作者: chuegou (chuegou)   2022-10-07 15:36:00
现在主流网站用可见噪声验证码都防不住机器人了 影像辨识很强大捏
作者: Bugquan (靠近边缘)   2022-10-07 15:36:00
就算不改模型,也只是多一道工,而且除非全加了,不然总有没加工的
作者: Mchord (Mchord)   2022-10-07 15:36:00
加到整张看不清楚连粉丝都不想看的话,他们也懒得盗你图
作者: miyazakisun2 (hidetaka)   2022-10-07 15:37:00
那个噪声还原 已经....
作者: k960608 (雾羽‧浪沙)   2022-10-07 15:37:00
对 最终就会走向大家都不放图的境界
作者: Bugquan (靠近边缘)   2022-10-07 15:37:00
不放图先饿死绘师而已
作者: mn435 (nick)   2022-10-07 15:38:00
Ai学老图就够本了吧…
作者: vios10009 (vios10009)   2022-10-07 15:38:00
这个AI本身就是以降噪为基底去练习的,这就像是在国文考卷上丢一堆幼稚园数学题目,AI看了都会笑
作者: qxpbyd (qxpbyd)   2022-10-07 15:38:00
训练过程就会加噪了 等于是绘师先帮忙放了一点noise
作者: alen0303 (艾伦零参 智商负三)   2022-10-07 15:38:00
这已经好几年前的问题了 早就被解决了
作者: Annulene (tokser)   2022-10-07 15:38:00
看着跟当时抖音的情况有点像? 结果应该也差不多 使用者越来越多的话
作者: mn435 (nick)   2022-10-07 15:39:00
最后ai学ai谁要学绘师
作者: jasonchangki (阿特拉斯耸耸肩)   2022-10-07 15:39:00
真正厉害早就去当工程师了哪会绘师
作者: sameber520 (请给我萝莉)   2022-10-07 15:39:00
但绘师的知名度和商业来源要先从分享开始 所以别想了
作者: LiangNight   2022-10-07 15:39:00
越来越好奇未来的发展了
作者: sameber520 (请给我萝莉)   2022-10-07 15:40:00
工业革命时的手工业者最后还不是得进工厂工作
作者: twosheep0603 (两羊)   2022-10-07 15:42:00
这套是骗分类器用的 aka tag污染对于diffusion来说可以说是毫无作用w
作者: ringtweety (tark)   2022-10-07 15:43:00
AI现在生的图的等级 其实已经告诉你这噪声效果不大了
作者: undeadmask (臭起司)   2022-10-07 15:45:00
最后就会变成绘师都懒得画图 ACG二创市场萎缩 宅宅只能看AI图尻尻 大家互相伤害罢了
作者: qxpbyd (qxpbyd)   2022-10-07 15:46:00
https://i.imgur.com/qMV2uoH.jpg Cold Diffusion那一篇试过加不同种的noise了
作者: zeolas (zeolas)   2022-10-07 15:47:00
看以后会不会变成军备竞赛囉,我反制你的反制之类的
作者: TentoEtsu (天藤悦)   2022-10-07 15:48:00
好像还满多人乐见这种互相伤害 笑死 以后大家都没得看
作者: a43164910 (寺杉伊六)   2022-10-07 15:49:00
活不到那个以后啦 都没得看是要发展成怎样==
作者: sameber520 (请给我萝莉)   2022-10-07 15:49:00
我倒觉得以后AI会变成绘师工作用IDE的一部份吧说到底还不是要人下指令 修图也还是绘师修的好
作者: Irenicus (Jon Irenicus)   2022-10-07 15:51:00
不放图就不能当社群偶像了 太苦了是说有时间想这些有的没的 不如赶快去研究AI可以怎样让自己的产图更多更好
作者: Lhmstu (lhmstu)   2022-10-07 15:52:00
这方法太低阶了吧...
作者: guogu   2022-10-07 15:52:00
怎么可能没得看 如果AI图够好看够有趣 大家看AI图一样享乐如果AI图千篇一律 没故事性 那样人类绘师就会继续主流
作者: nisioisin (nemurubaka)   2022-10-07 15:53:00
这张图是数位逻辑还是影像辨识课本跑出来的吧XD这种程度应该很好分离出来
作者: Siika (诗花)   2022-10-07 15:53:00
真的要防就是完全断网啦
作者: guogu   2022-10-07 15:56:00
真的要防就是画完送碎纸机 不上传不出版就不可能被学
作者: GreenComet (迷宫の十字路)   2022-10-07 15:56:00
都有对抗式训练了 那比白噪点更能攻击网络
作者: orange0319 (喵喵喵)   2022-10-07 15:56:00
不就和验证码一样,到后来正常人根本不知道验证码那团歪七扭八文字是啥,但是电脑却能辨识
作者: asiaking5566 (无想转生)   2022-10-07 15:57:00
只能让自己推的爱心数变少而已
作者: purue (purue)   2022-10-07 15:57:00
去防这个 不如公开模仿资讯让绘师抽成
作者: DJYOSHITAKA (Evans)   2022-10-07 15:57:00
这超多人在做了吧
作者: mom213 (mom213)   2022-10-07 15:58:00
这老方法了 一堆外行仔zzz
作者: sinnerck1 (Demonbane)   2022-10-07 16:00:00
骗分类器的老方法是有什么用
作者: mapulcatt (cosi fun tutte)   2022-10-07 16:01:00
画师都死去大概也没差 到后来用照片训练 AI图互相训练
作者: aaaaooo (路过乡民)   2022-10-07 16:01:00
这就第N次工业革命阿 先学会用法的人可以把其他人淘汰掉
作者: mapulcatt (cosi fun tutte)   2022-10-07 16:02:00
然后再由受众的反应去决定训练的反馈就好了就像当时阿法狗一样 进化到后来 人类的棋谱反而是累赘
作者: ringtweety (tark)   2022-10-07 16:05:00
当AI已经能呈现出水准很高的图 而不是什么都画成邪神
作者: guogu   2022-10-07 16:05:00
绘师本来就外行人啊 人家是画图的不是搞ai的是要多内行
作者: zeus7668 (HighKing)   2022-10-07 16:05:00
文组想到的方法没什么参考意义
作者: Annulene (tokser)   2022-10-07 16:06:00
跟“人类”借图还要知会一下 这个根本厉害 还难追溯源头
作者: ringtweety (tark)   2022-10-07 16:07:00
表示它的理解能力已经不是这种噪声就可以断的了
作者: Aurestor (水母)   2022-10-07 16:08:00
这招是在瞧不起AI吗
作者: misclicked (misclicked)   2022-10-07 16:10:00
我的论文就是做这个的
作者: akiue (乐透冥登)   2022-10-07 16:17:00
AI:哈欠。想到网页有时会出现,怀疑你是机器人。
作者: aaronpwyu (chocoboチョコボ)   2022-10-07 16:27:00
就跟放符文防中国一样啊 插入讯息防盗用
作者: clothg34569 (提拉米苏冰淇淋)   2022-10-07 16:29:00
这一看就外行人的言论= =晚点再回一篇好了 这篇只证明了懂AI真的很重要之后绘师是不是应该要把李宏毅的课程列为必修阿
作者: dsa888888 (KurumiNZXT Kraken X61 C)   2022-10-07 16:34:00
不要上传图片让它没得吃虽然现在的图库应该够了
作者: jokerjuju (juju)   2022-10-07 16:35:00
这个大概还是停留在剪贴时代的产物
作者: johnny3 (キラ☆)   2022-10-07 16:39:00
一句话 来不及了啦
作者: Raptors1 (正宗哥吉他)   2022-10-07 16:46:00
小干扰就死掉的AI不会被端出来啦以为工程师的头发白掉的?
作者: junren0183 (Junren)   2022-10-07 16:49:00
这么怕就不要贴图出来就好了==
作者: Darnatos   2022-10-07 17:04:00
这没用...
作者: xxxyangxxx (当当)   2022-10-07 17:13:00
前面加个滤波器就破解了
作者: chairfong (废文ID)   2022-10-07 17:18:00
人类对ai做的事 就像以前大人为小孩装了第四台锁码器
作者: start928 (我是人)   2022-10-07 17:24:00
其实加噪声进去 会让这个程式更有robust 本来就有这个技术了 这篇是在反串吗XD
作者: Kururu8079   2022-10-07 17:24:00
笑死,真的是已知用火欸
作者: syldsk (Iluvia)   2022-10-07 17:30:00
这个本来就有在研发不是?
作者: Oxyuranus (Oxyuranus)   2022-10-07 17:36:00
那就是补一个filter再喂图而已
作者: manu5566 (深海大蚌壳)   2022-10-07 17:44:00
训练都会加noise了,你这个反而是帮助他们训练,
作者: jacky5859 ( )   2022-10-07 18:30:00
这个不是很久了吗
作者: watashino (我同学数学很烂)   2022-10-07 18:33:00
这串一堆不懂DL的在闹欸==
作者: paul51110 (JustBecause)   2022-10-07 19:05:00
已知用火
作者: Cactusman (仙人掌人)   2022-10-07 19:26:00
到底为啥要防止AI学习?
作者: bitcch (必可取)   2022-10-07 19:30:00
笑死 人工adversarial attack 更何况现在是生成模型

Links booklink

Contact Us: admin [ a t ] ucptt.com