[闲聊] AI语音翻唱与诈骗

楼主: joker8881 (终夜)   2023-09-26 15:17:09
自己其实就有在研究AI语音这一块,目前以大家就能轻易接触到RVC,是已经可以唯妙唯肖
的模仿本人的声音,我自己也用朋友的声音互相训练过,只要音源够干净(基本上电话的声
音就非常干净)就能用不到三分钟的素材模仿出对方的声音(高音气音基本上都不太有破绽
)。甚至有些AI网站服务不需要到十秒的素材,就能合成出相对接近的声音。
对岸很多文章跟演示有兴趣可以去看,YT上也有不少Vtuber合成语音唱歌的影片,这边就贴
一个gura的就好。
https://www.youtube.com/watch?v=4cHtSuHmOlE
然后最近一段时间美国就有用模仿语音的诈骗,以台湾的技术来说应该是早就在实用阶段了
我猜,但目前还没遇过。
https://www.bnext.com.tw/article/75442/ai-usa-scam
虽然说不知道诈骗会不会特别去锁定个人来用语音诈骗对方的家人,但是或许有机会还是要
跟家中长辈提一下类似的事情,都要记得打电话求证确认避免被诈骗。
作者: zsp9081a (蓦然回首)   2023-09-26 15:19:00
ai模仿在现在还是得要有足够资料去跑学习吧
作者: kinosband (キノ)   2023-09-26 15:19:00
这是可以色色的吗
作者: starsheep013 (星绒绵羊)   2023-09-26 15:19:00
丁丁点灯
作者: zsp9081a (蓦然回首)   2023-09-26 15:20:00
是说B站前段时间很流行ai孙燕姿,几乎各种歌曲都有了
作者: kirimaru73 (雾丸)   2023-09-26 15:22:00
AI训练你声音诈骗的前提是你是素材很多的公众人物所以不用担心,AI顶多用来产生逼真的殴打哀号声音(但这种骗法也根本不需要AI,自己练还比较快)
作者: bpq302302 (Anabebe)   2023-09-26 15:23:00
死神,马
作者: a2156700 (斯坦福桥)   2023-09-26 15:24:00
https://i.imgur.com/QG4faO4.png 以后可以换成语音版
作者: kimokimocom (A creative way)   2023-09-26 15:28:00
之前常接到什么桃园房屋公司 就很像是AI在应对
作者: GaoLinHua   2023-09-26 15:43:00
惨了 园区仔要失业了
作者: llabswollag (宅宅很可怕)   2023-09-26 18:15:00
话说像柯南变声器那样即时转换的技术已经有了吗

Links booklink

Contact Us: admin [ a t ] ucptt.com