本文将细谈于2017年开始被讨论的“深度开源学习技术、GAN、CycleGAN、conditional GAN、big GANs、Pix2Pix、deepmind......”等新的人工智能技术,并延伸联想与讨论对于诉讼市场之影响。
2017年一位暱称deepfakes的美国网友,上传一段假造的Gal Gadot成人电影,引起相当多的讨论,不论是担忧此技术(“眼见不一定为真”)、或者感到兴奋(有很多具有商业价值的新应用)。而本文并非要讨论技术核心、或者研究这些名词定义,单纯提早提醒各位读者或网友:这些技术可能对你未来的个人生活、工作领域都有产生重大影响!这类由各式程式语言、人工智能技术所快速且低成本产生的伪变造影像,目前统称为deepfake(或deepfakes)。
https://i.imgur.com/4AAjAb3.jpg
男演员Steve Buscemi的五官套用在女演员Jennifer Lawrence脸上之动态影像,非专业人士根本无法辨认出破绽。
https://i.imgur.com/AhZXRJK.jpg
一位美国喜剧演员为了凸显此技术在世界发展的忧虑,用比较戏谑的方式、以喜剧呈现deepfake的效果(用演员本身的脸部变化、嘴形、语气,去‘制造’出欧巴马讲话的假影像):
https://goo.gl/Z2zeUC
除了动态的影音以外,目前的人工智能技术也可以自动生成“修改过”但“合理”的照片:例如将棕马改为斑马,未来已经不需人为、耗时慢慢使用photoshop等影像处理软件去修改照片了。因此未来假讯息的制造速度,将会以等比级速、无法追上、也澄清不了的速度去发展。
https://i.imgur.com/fZjJRWu.jpg
另个更强技术则是由程式自动搜寻网络上适合的素材,“凭空”创造出新的影像,例如下张图内有15张狗照片,里面有一张是“人工智能产生的、世界上并不存在”的狗,请问读者看得出是哪一张吗?
https://i.imgur.com/r0CJlag.jpg
这几年可于手机或平板电脑下载相关的美肌、变脸app,在概念与逻辑上,就已经算是基础的影像开源学习与编辑技术了。随着技术门槛越来越低,未来一般人借由付费或免费软件去制作出deepfake影像、以假乱真的机率将越来越大!
最常争议的性侵、家暴等私密空间犯罪的调查,相当依赖影音证据,假若未来deepfake技术与软件俯拾即是时,则“实际上有性侵,但加害者伪变造影音,‘证明’该次性行为属对方积极同意或消极不反对”脱罪、反之也可能“实际上无性侵,但其中一方刻意制造出疑似性侵的影音对白呼救桥段”构陷另方。更扩大联想与延伸,会议室内的契约谈判、家属间的录音录影遗嘱,未来伪变造机率都大增。其他诸如公然侮辱、强制、恐吓、性骚扰……等情状都可能无中生有、或抹除相关影像。
民众或公众人物于公开场合的演讲,假若现场还有其他人同时录影,未来有机会互相比对,也许降低了针对“公开场合”说话的deepfake可能性;但这样的场合,终究并非随时存在,我们生活中、多数时候所面对的环境,都属于人类记忆难以细腻回想(你会记得上周三午餐跟同事聊过什么?当下穿什么衣服吗?)、或者私密空间。所以有心人利用deepfake上下其手的空间,将会非常大。关于诉讼或司法程序,除了上述的民刑家事案件以外,在某些前置程序、例如刑案调查,假若承办人员面对畸形的绩效压力、或者心态走偏了,也可能会产生陷害民众以自利的动机。别说不可
能,近年已经发生多起警察滥查民众个资、栽枪栽毒、甚至窜改民众电磁记录加以构陷的事件了……所以deepfake不只发生在当事人间,也可让国家机器“吃人”。
(完整原文请至“红鹤老爸阵线”:https://goo.gl/aJFYSA )