Re: [问卦] 美军陆战队学《潜龙谍影》纸箱潜行战术,

楼主: sxy67230 (charlesgg)   2023-01-21 10:45:41
※ 引述《teeheehee (软尾抛抛翔(′・ω・`))》之铭言
: 美军陆战队学《潜龙谍影》纸箱潜行战术,成功骗过AI侦测机器人
: 自《死亡搁浅》上市到疫情爆发以来,游戏社群都赞扬小岛秀夫的发想宛如先知,
: 如今又有一款他的作品成为了现实发生的事,
: 《潜龙谍影》(Metal Gear)的“纸箱潜行”真的有用,只不过不是对人,而是对 AI 人
: 工智慧。
阿肥外商码农阿肥啦!
其实这在机器学习/深度学习领域当前还是一个资安攻防战的大问哉,尤其是图像领域其实
从摄影机取得的数据,其实如果熟知数位讯号的话,其实对于机器取得的讯号只是256个数
值(对应PC的256色彩度)加上一个通道数量的三维数据,归一化以后可以把数值256变成0到1
之间的浮点数,这样问题就来了,现实世界人眼其实对浮点数差0.001不到的变化是很难察
觉的,人眼对于色彩的变化度其实非常不灵敏,对于光流反而比较敏感,甚至可以自我补全
合理化物体运动轨迹,这是当前类比数位讯号很难表达出人眼数据结构的问题。
像这种对抗例攻击(adversarisal example attack)的问题,当前业界学界主要是用一些传
统滤波器帮忙过滤有毒讯号在喂给AI或是调整决策边界来避免某些特殊讯号被AI放大影响分
类决策信心度,像这种纸箱也不是随便一种纸箱,骇客通常可以用你的模型API来协助他训
练一个更强的对抗模型生成可以骗过你机器的一张图片,同时这张图片还要看不出来他是被
窜改过素相彩度的图片,人眼外观看起来是纸箱但机器一旦辨识就不太识别的出来的那种,
这种就有点资安攻防的概念,道高一尺魔高一丈,一旦研究员发现到被攻击可能会微调模型
或是加上滤波器防堵,骇客也还是用这种方式我在来找你的模型漏洞生成图片无限下去。
我觉得阿肥长年作为研究者其实有很大程度也是发现到真正的原因是因为图像数据表达格式
的问题跟人眼读取影像的方式差异很大,像自然语言识别因为输入是文字块就不太会出现这
样的麻烦,不过文字因为涉及抽象思考概念这部分当前AI很难理解人类大脑背后的世界模型
也是需要研究的地方,所以整个领域都还有成长进步的空间啦!
大过年就不讲太复杂的东西了,差不多4酱

Links booklink

Contact Us: admin [ a t ] ucptt.com