标题:加萨战火现AI合成深伪影像 假浴血弃婴照激化愤怒
新闻来源: (发文须填写新闻网站名称与连结,供板友分辨)
中央社
https://is.gd/gUITFd
https://is.gd/BjhMo4
10月8日以色列空袭加萨后,建物冒出大火与浓烟。(美联社)
(中央社华盛顿28日综合外电报导)以色列与哈玛斯开战以来,加萨走廊被炸毁的房屋和
街道照片中,有些画面极度恐怖,例如浴血弃婴,这些影像是利用AI深伪技术合成,在网
路上有数以百万计的浏览量。
美联社报导,如果仔细观察会发现一些破绽,例如手指弯得很怪,或眼睛闪烁著不自然光
芒,这些都是数位欺骗的迹象。
然而,制造这些影像来激发的怒火,却是非常真实的情绪。
以色列与巴勒斯坦武装团体“哈玛斯”(Hamas)战争相关照片生动且强烈地凸显人工智
慧(AI)作为宣传工具的潜力,被用于创造逼真的屠杀影像。自上个月以哈战争爆发以来
,社群媒体上流传的数位修图被用来制造关于伤亡究责的不实说法,或欺骗民众有暴行但
实际上从未发生。
虽然网络上流传的不实说法大多不需要动用到AI,而是来自更传统的来源,但科技进步也
让频率变高,而且几乎没有监管机制。这使得AI成为另类武器的潜力变得显而易见,也让
人得以一窥未来冲突、选举和其他重大事件中将会发生的情况。
总部设于旧金山和巴黎的科技公司CREOpoint利用AI评估网络说法的正确性,执行长戈登
斯坦(Jean-Claude Goldenstein)表示:“情况会恶化,变得更糟,之后才会好转。”
这家公司建立一个数据库,储存有关加萨走廊(Gaza Strip)最疯传的“深伪”(
Deepfake)技术生成内容,“有了生成式AI,照片、影片和音档将有前所未见的‘升级’
”。
https://is.gd/z4BCSf
在某些案例中,其他冲突或灾难的照片被重新利用,冒充成新照片。另有生成式AI程式被
用来“无中生有”创造新的影像,例如有个婴儿在轰炸残骸中哭泣的影像在冲突初期迅速
流传。
其他AI生成影像的例子包括据称是以色列飞弹袭击的影片,或战车驶过被摧毁的社区、家
属在瓦砾堆中搜寻生还者的影片。
在许多案例中,假照片目的似乎是要激起强烈的情绪反应。在血腥冲突初期,以色列和哈
玛斯的支持阵营都指称对方伤害孩童和婴儿,哭泣婴儿的深伪影像随即被当成“证据”。
追踪战争假消息的非营利组织“对抗网络仇恨中心”(Center for Countering Digital
Hate)执行长阿迈德(Imran Ahmed)表示,制作这类影像的宣传人员善于瞄准人们心中
最深层的冲动和焦虑。
影像愈令人厌恶,网络用户就愈有可能记住并且分享,从而在不知不觉中成为假消息传播
的帮凶。阿迈德说:“假消息目的是让你参与其中。”
俄罗斯去年入侵乌克兰后,网络上也开始流传类似的AI生成欺骗性内容。一段经过修改的
影片似乎显示乌克兰总统泽伦斯基(Volodymyr Zelenskyy)下令乌克兰人投降。这类说
法直到上周都还在持续流传,显示即使很容易被揭穿的错误资讯也可以持久存在。
每当有新的冲突或选举季节,假消息传播者又有机会展示最新AI进展。许多AI专家和政治
学家对来年的风险发出警告,届时有多个国家将举行重大选举,包括美国、台湾、印度、
巴基斯坦、乌克兰、印尼和墨西哥。
AI和社群媒体可能被用来向选民传播谎言的风险引发美国两党议员担忧。维吉尼亚州民主
党籍联邦众议员康诺里(Gerry Connolly)在最近有关深伪技术危险的听证会上表示,美
国必须资助研发目的在对抗其他AI的AI工具。
世界各地许多新创科技公司正在开发新程式,协助揪出深伪影像、在影像中添加浮水印以
证明来源,或扫描文字以验证任何可能有AI介入的似是而非说法。
电脑科学家多尔曼(David Doermann)表示,虽然这种技术有前景,但利用AI撒谎的不肖
人士往往领先一步。多尔曼曾在美国国防先进研究计画局(DARPA)协助因应AI操纵影像
构成的国安威胁。
现为大学教授的多尔曼表示,若要有效因应AI假消息构成的政治和社会挑战,需要更好的
技术和监管机制、自愿性产业标准以及对数位素养计画的广泛投资,以助网络用户了解分
辨真假的方式,“侦测并试图将这些内容撤下不是办法,我们需要更大的解决方案”。(
译者:卢映孜/核稿:刘文瑜)1121129