[新闻] OpenAI认了“人声复制新工具”太危险 

楼主: Sinreigensou (神灵幻想)   2024-04-01 14:53:47
OpenAI认了“人声复制新工具”太危险 不宜全面开放
美国人工智能开发公司OpenAI于3月29日公布语音AI工具“Voice Engine”,只需要短短15
秒的说话声音样本,就能复制出此人声音。不过,该公司也认定这项语音复制工具风险太大
,不适合全面发布。
“Voice Engine”于2022年首次研发,初始版本被使用在ChatGPT内建文字转语音功能。其
生成结果不受声音样本语种限制,若说的是英文,这项技术可使用你的声音,生成西班牙语
、法语等其他语言结果。不过,考量到存在滥用风险,现阶段仅提供合作伙伴使用,尚未对
外开放。
《卫报》报导,OpenAI延迟推出“Voice Engine”,是为了在至关重要的全球大选年,最大
限度地减少假消息出现的可能性。
OpenAI在一篇贴文中表示,目前“Voice Engine”的生成结果都有浮水印,以利追踪生成式
音档的来源。与合作伙伴的使用条款也规定,必须取得原始说话者的明确知情同意,更不允
许开发人员让个人用户自行创造声音档案。
OpenAI表示,“目前选择预览而非广泛发布这项技术”,是为了强化社会面对“更具说服力
的生成式模型”的能力,呼吁逐步淘汰语音认证,作为登入银行帐户或其他敏感资讯的安全
措施,制定在AI领域使用个人声音的保护政策,以及推广理解AI能力与限制、包括欺骗性内
容的公众教育。
OpenAI写道,“我们希望针对负责任地使用合成声音,以及社会如何适应这些新功能,展开
一场对话”,并且根据对话结果及小规模测试,对于是否、如何大规模使用这项技术,做出
更明智的决定。
https://www.ettoday.net/news/20240401/2710876.htm
https://i.imgur.com/C2dZ1S5.jpg
阿笠博士的黑科技变声蝴蝶结终于实现了
蝴蝶结现场收音15秒就能复制命案现场任何人的声音
作者: lolic (lolic)   2024-04-01 14:56:00
以后用ai制造不在场证明
作者: sunlman (小人)   2024-04-01 14:56:00
讲电话之前都要先对口令了吗XD
作者: Fatesoul (Chiester)   2024-04-01 14:57:00
现在才认太危险
作者: hui000807 (Santa)   2024-04-01 14:57:00
这openAI产出的东西大家倒是很一致的认为只会更促成混乱和阴谋论而已
作者: tom11725 (奥特斯)   2024-04-01 14:58:00
网络上的东西已经很假了,再来就完全都是假的了
作者: cybermeow (我有一只猫)   2024-04-01 14:58:00
Openai 观点一直都是太危险不开放啊 然后变成closeai
作者: w2776803 (台南假面骑士HUNGER)   2024-04-01 14:58:00
复制总统的声音就好玩了
作者: s02180218 (不惑)   2024-04-01 14:58:00
要是生出一堆仿希特勒演讲 欧美一定暴怒
作者: KUSURI (UnderTheBurningSky)   2024-04-01 14:58:00
以后录音证据不一定为证 搭配上影像AI生成 应该可以期待无中生有的纪录片
作者: a125g (期末崩溃讨嘘哥)   2024-04-01 14:59:00
诈骗新手段
作者: cybermeow (我有一只猫)   2024-04-01 14:59:00
今天openai 说觉得新东西不危险才是新闻
作者: ryoma1 (热血小豪)   2024-04-01 14:59:00
YT美国总统同乐玩游戏的影片不晓得有没有上百支了
作者: sasmwh561 (卡尔卡诺m9138)   2024-04-01 15:01:00
以后声纹验证要走入历史了
作者: killerj466v2 (肥肥)   2024-04-01 15:02:00
声纹比图画AI可怕多了
作者: magamanzero (qqq)   2024-04-01 15:02:00
这个声纹也一样?
作者: a125g (期末崩溃讨嘘哥)   2024-04-01 15:02:00
一些机密东西不能再用声纹认证某些武器授权之类的
作者: madaoraifu (没有反应,就是个Madao。)   2024-04-01 15:03:00
openai有不危险的东西吗?
作者: Annulene (tokser)   2024-04-01 15:04:00
....假道学
作者: kaj1983   2024-04-01 15:04:00
AI危险的东西以后只会更多假新闻假影片,以后不会再出现网红小鸡这种低能案例了要造假骗流量将会非常容易
作者: Annulene (tokser)   2024-04-01 15:06:00
讲一大堆 结果还不是探社会底线 跟之前一样...
作者: breadf ( Lifting Turn )   2024-04-01 15:06:00
不可能任务出现过
作者: kaj1983   2024-04-01 15:07:00
诈骗行业将会变得更发达
作者: ayufly (.)   2024-04-01 15:08:00
诈骗业要起飞了
作者: Stella (钢琴控)   2024-04-01 15:10:00
这东西早就有了,GitHub随便找斗一堆
作者: sustainer123 (caster)   2024-04-01 15:12:00
closeai
作者: Rain0224 (深语)   2024-04-01 15:13:00
这不是什么openai 的产品很危险,也跟任何特定企业无关,而是ai 的技术持续发展,社会就势必要面对的问题,就算openai 不开发,也会有其他人做出来
作者: dieorrun (Tide)   2024-04-01 15:14:00
反正弄出来先投入诈骗就对了
作者: Rain0224 (深语)   2024-04-01 15:15:00
技术发展的速度远快于社会适应的能力
作者: gaaaaper (筷子王)   2024-04-01 15:15:00
诈骗星球
作者: orze04 (orz)   2024-04-01 15:16:00
AI 图和假影片还算容易区别,人声置换真的没那么容易分
作者: milk830122 (SuperX)   2024-04-01 15:16:00
歹丸第一个先投入
作者: kaj1983   2024-04-01 15:18:00
其他公司要办到像openai的程度应该是很难啦
作者: CannonLake (等待农药)   2024-04-01 15:18:00
学习数据库够多 一定分不出来 隔壁最大声纹库有几十年样本老素都ai了
作者: kinghtt (万年潜水伕)   2024-04-01 15:19:00
AI做假影片+声音,以后要抓罪犯更难了...
作者: kaj1983   2024-04-01 15:19:00
AI就是在军备竞赛,规模不够大的玩不起够大的公司在训练效率上是翻倍来计算的
作者: kenkenken31 (呆呆傻蛋)   2024-04-01 15:21:00
以后做人要谨言慎行做好大谷一般的形象,不然AI帮你放话你就社死了,每个人都觉得你贱嘴这话肯定是你说的
作者: TaiwanXDman (XD...)   2024-04-01 15:22:00
柯南都是真的
作者: Johnsonj (栗鼠别咬啦>"<)   2024-04-01 15:24:00
AI Koyo的人声合成不是玩好一阵子了XDDD
作者: h75311418 (Wiz)   2024-04-01 15:24:00
以后用AI做讲影像配声音就麻烦了
作者: edwinrw (言灵祝福)   2024-04-01 15:27:00
不可能的任务
作者: as3366700 (Evan)   2024-04-01 15:29:00
二次元在吵绘图AI会不会抢工作 三次元那些换脸 换身人声AI是实实在在侵害名人的...
作者: none049 (没有人)   2024-04-01 15:30:00
以后就算有人要谨言慎行做好形象,用AI的照样给你社死
作者: PunkGrass (庞克草)   2024-04-01 15:31:00
想到之前水原那事 假如有人用大谷的声音跟形象去做假影片...
作者: none049 (没有人)   2024-04-01 15:31:00
一开始就是以社死特定人物当目标的哪会在乎目标原本的形象如何啊?用AI量产假声明进行海量抹黑就可以让当事人辟谣跑断腿了
作者: bobby4755 (苍郁之夜)   2024-04-01 15:35:00
某甩葱软件躲过一劫
作者: KurumiNoah (胡桃のあ)   2024-04-01 15:39:00
不可能任务3真实上演
作者: Xpwa563704ju (coolcookies)   2024-04-01 15:51:00
网络上早就有类似的东西了,只是好不好用不清楚
作者: PoGreg (雷格西18)   2024-04-01 15:58:00
什么谨言慎行 以后要像麻椅那种赖皮不怕黑的才能活的久
作者: dnek (哪啊哪啊的合气道)   2024-04-01 16:03:00
想不到这黑科技是真的
作者: polun   2024-04-01 16:05:00
AI图片影像也很危险拉 弄成照片影片也是越来越精细
作者: snocia (雪夏)   2024-04-01 16:06:00
AI主要功用
作者: jazon (Perhaps, Love)   2024-04-01 16:22:00
现在有喔 要小心 接电话没出声收你的声音去复制
作者: hololive45P (MIKO-MIKO-MI)   2024-04-01 16:32:00
类似的AI模拟原音在YT已经很多了,而且很像
作者: bobby4755 (苍郁之夜)   2024-04-01 16:41:00
光市面上的语音模拟+deepfake 就生出一堆冒用名人的投资诈骗了
作者: umano (ぎゃああああああああ)   2024-04-01 17:14:00
不可能的科技
作者: greg90326 (虚无研究所)   2024-04-01 17:25:00
求救 有没有对身体其他部位无害的变哑巴方法
作者: asdfg5435   2024-04-01 17:47:00
我妈如果打给我 要钱 我一定上当…
作者: cloki (夜云天)   2024-04-01 17:49:00
人声AI就算没OpenAI拿出来也好一阵子了,只是训练成本高
作者: logitech2004 (ddd)   2024-04-01 17:50:00
诈骗集团又更厉害了

Links booklink

Contact Us: admin [ a t ] ucptt.com