OpenAI认了“人声复制新工具”太危险 不宜全面开放
美国人工智能开发公司OpenAI于3月29日公布语音AI工具“Voice Engine”,只需要短短15
秒的说话声音样本,就能复制出此人声音。不过,该公司也认定这项语音复制工具风险太大
,不适合全面发布。
“Voice Engine”于2022年首次研发,初始版本被使用在ChatGPT内建文字转语音功能。其
生成结果不受声音样本语种限制,若说的是英文,这项技术可使用你的声音,生成西班牙语
、法语等其他语言结果。不过,考量到存在滥用风险,现阶段仅提供合作伙伴使用,尚未对
外开放。
《卫报》报导,OpenAI延迟推出“Voice Engine”,是为了在至关重要的全球大选年,最大
限度地减少假消息出现的可能性。
OpenAI在一篇贴文中表示,目前“Voice Engine”的生成结果都有浮水印,以利追踪生成式
音档的来源。与合作伙伴的使用条款也规定,必须取得原始说话者的明确知情同意,更不允
许开发人员让个人用户自行创造声音档案。
OpenAI表示,“目前选择预览而非广泛发布这项技术”,是为了强化社会面对“更具说服力
的生成式模型”的能力,呼吁逐步淘汰语音认证,作为登入银行帐户或其他敏感资讯的安全
措施,制定在AI领域使用个人声音的保护政策,以及推广理解AI能力与限制、包括欺骗性内
容的公众教育。
OpenAI写道,“我们希望针对负责任地使用合成声音,以及社会如何适应这些新功能,展开
一场对话”,并且根据对话结果及小规模测试,对于是否、如何大规模使用这项技术,做出
更明智的决定。
https://www.ettoday.net/news/20240401/2710876.htm
https://i.imgur.com/C2dZ1S5.jpg
阿笠博士的黑科技变声蝴蝶结终于实现了
蝴蝶结现场收音15秒就能复制命案现场任何人的声音
作者:
lolic (lolic)
2024-04-01 14:56:00以后用ai制造不在场证明
作者:
sunlman (小人)
2024-04-01 14:56:00讲电话之前都要先对口令了吗XD
作者:
Fatesoul (Chiester)
2024-04-01 14:57:00现在才认太危险
这openAI产出的东西大家倒是很一致的认为只会更促成混乱和阴谋论而已
Openai 观点一直都是太危险不开放啊 然后变成closeai
作者:
w2776803 (台南假面骑士HUNGER)
2024-04-01 14:58:00复制总统的声音就好玩了
作者:
KUSURI (UnderTheBurningSky)
2024-04-01 14:58:00以后录音证据不一定为证 搭配上影像AI生成 应该可以期待无中生有的纪录片
作者: a125g (期末崩溃讨嘘哥) 2024-04-01 14:59:00
诈骗新手段
作者:
ryoma1 (热血小豪)
2024-04-01 14:59:00YT美国总统同乐玩游戏的影片不晓得有没有上百支了
作者:
sasmwh561 (卡尔卡诺m9138)
2024-04-01 15:01:00以后声纹验证要走入历史了
作者: a125g (期末崩溃讨嘘哥) 2024-04-01 15:02:00
一些机密东西不能再用声纹认证某些武器授权之类的
作者:
madaoraifu (没有反应,就是个Madao。)
2024-04-01 15:03:00openai有不危险的东西吗?
作者:
Annulene (tokser)
2024-04-01 15:04:00....假道学
AI危险的东西以后只会更多假新闻假影片,以后不会再出现网红小鸡这种低能案例了要造假骗流量将会非常容易
作者:
Annulene (tokser)
2024-04-01 15:06:00讲一大堆 结果还不是探社会底线 跟之前一样...
作者:
breadf ( Lifting Turn )
2024-04-01 15:06:00不可能任务出现过
作者:
ayufly (.)
2024-04-01 15:08:00诈骗业要起飞了
作者:
Stella (钢琴控)
2024-04-01 15:10:00这东西早就有了,GitHub随便找斗一堆
这不是什么openai 的产品很危险,也跟任何特定企业无关,而是ai 的技术持续发展,社会就势必要面对的问题,就算openai 不开发,也会有其他人做出来
作者: dieorrun (Tide) 2024-04-01 15:14:00
反正弄出来先投入诈骗就对了
作者: gaaaaper (筷子王) 2024-04-01 15:15:00
诈骗星球
作者:
orze04 (orz)
2024-04-01 15:16:00AI 图和假影片还算容易区别,人声置换真的没那么容易分
学习数据库够多 一定分不出来 隔壁最大声纹库有几十年样本老素都ai了
作者:
kinghtt (万年潜水伕)
2024-04-01 15:19:00AI做假影片+声音,以后要抓罪犯更难了...
AI就是在军备竞赛,规模不够大的玩不起够大的公司在训练效率上是翻倍来计算的
以后做人要谨言慎行做好大谷一般的形象,不然AI帮你放话你就社死了,每个人都觉得你贱嘴这话肯定是你说的
作者:
Johnsonj (栗鼠别咬啦>"<)
2024-04-01 15:24:00AI Koyo的人声合成不是玩好一阵子了XDDD
作者:
edwinrw (言灵祝福)
2024-04-01 15:27:00不可能的任务
二次元在吵绘图AI会不会抢工作 三次元那些换脸 换身人声AI是实实在在侵害名人的...
作者: none049 (没有人) 2024-04-01 15:30:00
以后就算有人要谨言慎行做好形象,用AI的照样给你社死
想到之前水原那事 假如有人用大谷的声音跟形象去做假影片...
作者: none049 (没有人) 2024-04-01 15:31:00
一开始就是以社死特定人物当目标的哪会在乎目标原本的形象如何啊?用AI量产假声明进行海量抹黑就可以让当事人辟谣跑断腿了
作者: bobby4755 (苍郁之夜) 2024-04-01 15:35:00
某甩葱软件躲过一劫
作者:
PoGreg (雷格西18)
2024-04-01 15:58:00什么谨言慎行 以后要像麻椅那种赖皮不怕黑的才能活的久
作者:
dnek (哪啊哪啊的合气道)
2024-04-01 16:03:00想不到这黑科技是真的
作者: polun 2024-04-01 16:05:00
AI图片影像也很危险拉 弄成照片影片也是越来越精细
作者:
snocia (雪夏)
2024-04-01 16:06:00AI主要功用
作者:
jazon (Perhaps, Love)
2024-04-01 16:22:00现在有喔 要小心 接电话没出声收你的声音去复制
作者: bobby4755 (苍郁之夜) 2024-04-01 16:41:00
光市面上的语音模拟+deepfake 就生出一堆冒用名人的投资诈骗了
作者:
umano (ぎゃああああああああ)
2024-04-01 17:14:00不可能的科技
作者: asdfg5435 2024-04-01 17:47:00
我妈如果打给我 要钱 我一定上当…
作者:
cloki (夜云天)
2024-04-01 17:49:00人声AI就算没OpenAI拿出来也好一阵子了,只是训练成本高