[情报] 防止声音被盗用的技术"Antifake"

楼主: n99lu (大家都有病)   2023-11-29 00:38:10
先前很多用ai盗用人家声音来营利的/诈骗事件不断
像是Lizzie Freeman 因为数位马戏团的爆红使他的声音一直被他人使用ai盗用
而现在有人正在开发出类似Glaze的声音版本:Antifake
https://sites.google.com/view/yu2023antifake
其运作方式跟Glaze很像 攻击者得到处理后的语音用于合成 就会不像原先的声音
网页中有处理过的声音试听
作者: pd3mnd (金木/琲世我儿子 +皿+)   2023-11-29 00:39:00
看不懂原理但好像不错
作者: SALEENS7LM (我爱我婆,更爱你的)   2023-11-29 00:39:00
欸癌仔:居然这样搞害我不能盗声音,喔77777
作者: zyxx (321)   2023-11-29 00:41:00
看了一下glaze还是不懂原理是什么
作者: johnny3 (キラ☆)   2023-11-29 00:41:00
不管怎样我都觉得来不及了 除非是新生儿才有用
作者: zyxx (321)   2023-11-29 00:42:00
glaze好像还不实用馁
作者: shinchen (starrydawn星晨)   2023-11-29 00:51:00
这加的噪音幅度太大了吧
作者: Sunming (日日日)   2023-11-29 00:56:00
AI合成语音虽然比较滑顺 但还是人工的MAD比较对胃口还是这是老害想法w
作者: ainamk (腰包王道)   2023-11-29 01:23:00
基本概念是加上人类感官无法察觉但是足以让AI学进去的噪声但是你不可能回收之前的无噪声影像/声音所以效果很有限
作者: Urakaze   2023-11-29 01:27:00
接下来就是开发反反盗用技术
作者: brightwish (密码同帐号)   2023-11-29 01:30:00
这就多几个样本让ai知道要滤掉噪声就好了…
作者: a204a218 (Hank)   2023-11-29 02:34:00
反正AI粉很快就会想出反制法继续偷盗
作者: ckniening (☞罂粟小子☜)   2023-11-29 04:41:00
我猜高斯滤波之后再去train就可以了

Links booklink

Contact Us: admin [ a t ] ucptt.com