※ 引述《gundamx7812 (亚洲空干王)》之铭言:
: 就是在作品图中加入人类肉眼难以辨识的噪声
: https://i.imgur.com/PBBbNRA.jpg
: https://twitter.com/Akihitweet/status/1577827240330809344?t=FOSz6UZh2oyMsStXJ8LE
: Zg&s=19
: 不过回复里也有人说有技术可以克服噪声问题就是了
: 延伸阅读:如何欺骗AI
: https://youtu.be/YXy6oX1iNoA
先讲结论 这没屁用==
这根本就像是拿FGO的职阶去谈碧蓝档案的相克
题目内容完全不同是在比啥
首先先贴李宏毅教授的影片
https://www.youtube.com/watch?v=xGQKhbjrFRk
https://www.youtube.com/watch?v=z-Q9ia5H2Ig
我真的觉得李弘毅教授的影片真的该列为必修
不然有些真的云得太夸张
一般噪声攻击是加在""""Input"""去干扰一个已经训练好的Model的Inference
结果这篇加在Training Data上 那是在搞笑吗
https://youtu.be/WeHM2xpYQpw?t=1044
时间帮忙标好了
一般常见的解OverFitting的方法就是在Training Data上面加上Augmentation
常用Augment方法可以自己上网查一下就不赘述
而Adversarial Attack最简单的对抗方式
就是在Training Data上面加上噪声Augment来抵抗这种攻击
所以说在Training Data上面加上噪声根本不是攻击他
而是帮他强化Model稳定性来对抗这种攻击
另外推文说加个Filter就可以搞定的
实际上这种根本不需要加Filter 甚至有些时候还会在Train的时候自己加入噪声
或者改变色阶呢... 这只是帮他丰富资料而已
我直接讲个真的对AI比较实际有伤的啦
我先假设Danbooru这种的Tagging是靠爬虫爬来的
看那数量感觉不是真的人手动标得
所以你要攻击他最简单的方法就是画个金发角色然后标褐发
画个精灵然后标矮人
画个中冈标山田
搞乱Tagging对他伤害才真的大
这样在Trainging时 同一张金发的图片可能Tag会是金发或者褐发
那他就很难学说哪个才是真正的金发
结论 : 污染Tag比污染图片实际多了
AI工程师大概有超过一半的时间是在和Data Cleaning奋斗...