就是在作品图中加入人类肉眼难以辨识的噪声
https://i.imgur.com/PBBbNRA.jpg
https://twitter.com/Akihitweet/status/1577827240330809344?t=FOSz6UZh2oyMsStXJ8LE
Zg&s=19
不过回复里也有人说有技术可以克服噪声问题就是了
延伸阅读:如何欺骗AI
https://youtu.be/YXy6oX1iNoA
作者:
diabolica (打回大師å†æ”¹ID)
2022-10-07 15:18:00如何欺骗人类
作者:
D2Diyus (想买的书太多了)
2022-10-07 15:18:00这真的比较是在欺负盗图仔肉眼w
作者: b2202761 (岚水滴) 2022-10-07 15:19:00
就只不过是在抓图时候多一道删除噪声的步骤
作者:
Nuey (ä¸è¦é¬§äº†å¥½æš´)
2022-10-07 15:19:00就多一道工序而已== 哪有差你不如整张图都打上马赛克还比较有用
作者:
holiybo (米罗)
2022-10-07 15:19:00这是不是跟防b站盗片是同一个原理
在色图加入噪声→古典制约导致性奋与噪声连结→未来光看噪声就可以射
作者:
k960608 (雾羽‧浪沙)
2022-10-07 15:20:00这就上锁的概念 总会有拆锁专家
作者:
Bugquan (靠近边缘)
2022-10-07 15:21:00人眼不能辨别,但是AI勒?
作者:
k960608 (雾羽‧浪沙)
2022-10-07 15:21:00但是上锁可以防止很多低等ai也是事实
作者:
k960608 (雾羽‧浪沙)
2022-10-07 15:22:00人眼不能辨识=我可以正常尻 ai会辨识=ai会得到跟我们不一样的资讯 这样有没有看懂
作者:
minoru04 (华山派巴麻美)
2022-10-07 15:23:00跟以前看到锁码台噪声画面就勃起一样
作者:
oldriver (oldriver)
2022-10-07 15:23:00AI看得懂=AI可以把它挑出来去掉 多一道工而已
作者:
a43164910 (寺æ‰ä¼Šå…)
2022-10-07 15:25:00有人觉得只有他看得懂欸 笑死
作者:
LLSGG (西西西瓜)
2022-10-07 15:26:00这史前论文我觉得已经解决了啦
作者:
haha98 (口合口合九十八)
2022-10-07 15:27:00以前gan红的时候gradient adversarial 就一堆了已知用火
作者:
vios10009 (vios10009)
2022-10-07 15:27:00你各位知道为什么中国转贴的图片很多品质差又有噪声了吧,那是为了防盗啦
作者:
kinghtt (万年潜水伕)
2022-10-07 15:27:00达文西领先业界500年...
这个是辨识用的模型 跟生成用的模型罩门不一样 辨识模型可能因为加一点噪声就认错物体 但加了噪声的熊猫在生成模型一样会产生加了噪声的熊猫
作者:
qxpbyd (qxpbyd)
2022-10-07 15:28:00作者:
k960608 (雾羽‧浪沙)
2022-10-07 15:28:00没错 最强的锁就是连门都没有
作者:
k960608 (雾羽‧浪沙)
2022-10-07 15:29:00其实你各位每次输入的验证码就是在帮ai识别啦
作者:
qxpbyd (qxpbyd)
2022-10-07 15:29:00而且那是影响分类问题 不知道对生成模型是有什么影响
作者: swear01 (swear) 2022-10-07 15:29:00
这个没用啦 李弘毅前几天在讲transfer learning的时候才讲过这个,那里的研究原因是训练出来的AI模型要防盗,结论却是在肉眼看不出来的噪声下,AI因为减少了Overfitting反而效果更好
作者:
Annulene (tokser)
2022-10-07 15:29:00看着蛮搞笑的 已经不知道安怎了..
作者:
haha98 (口合口合九十八)
2022-10-07 15:29:00你攻击gan可能还有点机会 但是现在红的是diffusion
SD本身就是建立在去噪的模型,这种防御方式会有用吗
作者:
qxpbyd (qxpbyd)
2022-10-07 15:30:00GAN有分类器 扩散模型没有
Difussion好像就是用加噪声去噪声的方式训练的,怀疑这个方法有效性
作者:
haha98 (口合口合九十八)
2022-10-07 15:33:00建议可以先去看几门开放式课程再来
用AI的方法对抗AI? 脑洞真大,多一道工而已,连游戏DRM 都挡不住骇客,你才图片是要挡什么
作者:
Mchord (Mchord)
2022-10-07 15:34:00这方法完全无效,不用幻想了
作者:
Mchord (Mchord)
2022-10-07 15:35:00你如果加了噪声图好看那train下去一样会生出好看的东西
作者:
mapulcatt (cosi fun tutte)
2022-10-07 15:36:00工程师:已知用火
作者:
chuegou (chuegou)
2022-10-07 15:36:00现在主流网站用可见噪声验证码都防不住机器人了 影像辨识很强大捏
作者:
Bugquan (靠近边缘)
2022-10-07 15:36:00就算不改模型,也只是多一道工,而且除非全加了,不然总有没加工的
作者:
Mchord (Mchord)
2022-10-07 15:36:00加到整张看不清楚连粉丝都不想看的话,他们也懒得盗你图
作者:
k960608 (雾羽‧浪沙)
2022-10-07 15:37:00对 最终就会走向大家都不放图的境界
作者:
Bugquan (靠近边缘)
2022-10-07 15:37:00不放图先饿死绘师而已
作者:
mn435 (nick)
2022-10-07 15:38:00Ai学老图就够本了吧…
作者:
vios10009 (vios10009)
2022-10-07 15:38:00这个AI本身就是以降噪为基底去练习的,这就像是在国文考卷上丢一堆幼稚园数学题目,AI看了都会笑
作者:
qxpbyd (qxpbyd)
2022-10-07 15:38:00训练过程就会加噪了 等于是绘师先帮忙放了一点noise
作者:
alen0303 (艾伦零参 智商负三)
2022-10-07 15:38:00这已经好几年前的问题了 早就被解决了
作者:
Annulene (tokser)
2022-10-07 15:38:00看着跟当时抖音的情况有点像? 结果应该也差不多 使用者越来越多的话
作者:
mn435 (nick)
2022-10-07 15:39:00最后ai学ai谁要学绘师
但绘师的知名度和商业来源要先从分享开始 所以别想了
作者: LiangNight 2022-10-07 15:39:00
越来越好奇未来的发展了
这套是骗分类器用的 aka tag污染对于diffusion来说可以说是毫无作用w
AI现在生的图的等级 其实已经告诉你这噪声效果不大了
最后就会变成绘师都懒得画图 ACG二创市场萎缩 宅宅只能看AI图尻尻 大家互相伤害罢了
作者:
zeolas (zeolas)
2022-10-07 15:47:00看以后会不会变成军备竞赛囉,我反制你的反制之类的
好像还满多人乐见这种互相伤害 笑死 以后大家都没得看
作者:
a43164910 (寺æ‰ä¼Šå…)
2022-10-07 15:49:00活不到那个以后啦 都没得看是要发展成怎样==
我倒觉得以后AI会变成绘师工作用IDE的一部份吧说到底还不是要人下指令 修图也还是绘师修的好
作者:
Irenicus (Jon Irenicus)
2022-10-07 15:51:00不放图就不能当社群偶像了 太苦了是说有时间想这些有的没的 不如赶快去研究AI可以怎样让自己的产图更多更好
作者:
Lhmstu (lhmstu)
2022-10-07 15:52:00这方法太低阶了吧...
作者:
guogu 2022-10-07 15:52:00怎么可能没得看 如果AI图够好看够有趣 大家看AI图一样享乐如果AI图千篇一律 没故事性 那样人类绘师就会继续主流
作者:
nisioisin (nemurubaka)
2022-10-07 15:53:00这张图是数位逻辑还是影像辨识课本跑出来的吧XD这种程度应该很好分离出来
作者:
Siika (诗花)
2022-10-07 15:53:00真的要防就是完全断网啦
作者:
guogu 2022-10-07 15:56:00真的要防就是画完送碎纸机 不上传不出版就不可能被学
不就和验证码一样,到后来正常人根本不知道验证码那团歪七扭八文字是啥,但是电脑却能辨识
作者: asiaking5566 (无想转生) 2022-10-07 15:57:00
只能让自己推的爱心数变少而已
作者:
purue (purue)
2022-10-07 15:57:00去防这个 不如公开模仿资讯让绘师抽成
作者:
mom213 (mom213)
2022-10-07 15:58:00这老方法了 一堆外行仔zzz
作者:
sinnerck1 (Demonbane)
2022-10-07 16:00:00骗分类器的老方法是有什么用
作者:
mapulcatt (cosi fun tutte)
2022-10-07 16:01:00画师都死去大概也没差 到后来用照片训练 AI图互相训练
作者:
aaaaooo (路过乡民)
2022-10-07 16:01:00这就第N次工业革命阿 先学会用法的人可以把其他人淘汰掉
作者:
mapulcatt (cosi fun tutte)
2022-10-07 16:02:00然后再由受众的反应去决定训练的反馈就好了就像当时阿法狗一样 进化到后来 人类的棋谱反而是累赘
当AI已经能呈现出水准很高的图 而不是什么都画成邪神
作者:
guogu 2022-10-07 16:05:00绘师本来就外行人啊 人家是画图的不是搞ai的是要多内行
作者:
zeus7668 (HighKing)
2022-10-07 16:05:00文组想到的方法没什么参考意义
作者:
Annulene (tokser)
2022-10-07 16:06:00跟“人类”借图还要知会一下 这个根本厉害 还难追溯源头
作者: Aurestor (水母) 2022-10-07 16:08:00
这招是在瞧不起AI吗
作者: misclicked (misclicked) 2022-10-07 16:10:00
我的论文就是做这个的
作者:
akiue (乐透冥登)
2022-10-07 16:17:00AI:哈欠。想到网页有时会出现,怀疑你是机器人。
作者:
aaronpwyu (chocoboチョコボ)
2022-10-07 16:27:00就跟放符文防中国一样啊 插入讯息防盗用
这一看就外行人的言论= =晚点再回一篇好了 这篇只证明了懂AI真的很重要之后绘师是不是应该要把李宏毅的课程列为必修阿
作者: dsa888888 (KurumiNZXT Kraken X61 C) 2022-10-07 16:34:00
不要上传图片让它没得吃虽然现在的图库应该够了
作者:
johnny3 (キラ☆)
2022-10-07 16:39:00一句话 来不及了啦
作者:
Raptors1 (正宗哥吉他)
2022-10-07 16:46:00小干扰就死掉的AI不会被端出来啦以为工程师的头发白掉的?
作者: Darnatos 2022-10-07 17:04:00
这没用...
作者: xxxyangxxx (当当) 2022-10-07 17:13:00
前面加个滤波器就破解了
人类对ai做的事 就像以前大人为小孩装了第四台锁码器
其实加噪声进去 会让这个程式更有robust 本来就有这个技术了 这篇是在反串吗XD
作者: Kururu8079 2022-10-07 17:24:00
笑死,真的是已知用火欸
作者:
syldsk (Iluvia)
2022-10-07 17:30:00这个本来就有在研发不是?
作者:
Oxyuranus (Oxyuranus)
2022-10-07 17:36:00那就是补一个filter再喂图而已
作者:
manu5566 (深海大蚌壳)
2022-10-07 17:44:00训练都会加noise了,你这个反而是帮助他们训练,
作者: jacky5859 ( ) 2022-10-07 18:30:00
这个不是很久了吗
作者: paul51110 (JustBecause) 2022-10-07 19:05:00
已知用火
作者:
bitcch (必可取)
2022-10-07 19:30:00笑死 人工adversarial attack 更何况现在是生成模型