楼主:
falomu (法萝暮)
2026-01-25 21:39:55资安院揭AI假影片4大情境 可用3方式初步检核
2026/1/25 09:50(1/25 09:54 更新)
(中央社记者赵敏雅台北25日电)人工智能(AI)生成影片日益增加,不仅常被用于伪冒
名人诈骗,近期也出现虚拟医师散布不实讯息。资安院研究员戴毓辰指出,AI假影片可分
为名人换脸色情片、伪冒名人诈骗、AI虚拟化身内容农场及搬运Sora影片等4大情境,民
众可透过留意AI生成标注、以图搜图、影片情境合理性等方式初步检核。
随着AI技术快速发展,网络上流传愈来愈多假影片。戴毓辰直言,“只要有利可图的地方
,就会有AI假影片”,AI技术已能进行换脸、嘴唇同步,也可生成全由AI产制的影片,如
“一张照片就能开讲”,仅需一张人物照片与一段声音,AI就能自动算出说话时应有的肌
肉抽动等,生成一段人物说话的影片。
戴毓辰分析,依团队观察,目前常见的AI假影片情境可分为4大类,第1类为最早出现的名
人换脸色情片,也就是利用AI深度伪造技术(Deepfake),将公众人物的脸部影像移花接
木,合成至其他影片。
第2类为伪冒名人诈骗,戴毓辰指出,不法人士常冒用财经专家、权威医师等影像,利用
AI做精细的“对嘴”处理,假冒成本人推荐投资或贩售药品,诱使民众加入投资群组或购
买产品。
第3类为AI虚拟化身(AI Avatar)内容农场,如YouTube频道“陈志明医师”,经查现实
中根本不存在此人。戴毓辰说,传统内容农场以大量文章为主,现在改用AI自动化工厂,
利用AI生成不存在的虚拟分身,扮演主持人或专家。由于只要有文案就能自动化产出影片
,发布频率极高,内容多涉及健康、理财或长者福利等议题。
戴毓辰解析,AI生成的虚拟化身影片长度仅短短几秒,经由无缝循环播放,可消除影片截
断感,构成数分钟影片,“虚拟化身看似动作自然,其实某些手势每隔一段时间就会重复
出现”。
第4类为搬运Sora影片,戴毓辰指出,社群平台上常见内容夸大的短影音,如切猫咪蛋糕
,猫咪吓到跳起来,这些多数搬运自专门生成AI影片的创作应用程式Sora。他说,这些影
片原本带有浮水印,但搬运者常以遮蔽或裁切方式去除,再发布至各大社群平台。民众可
留意影片角落是否模糊、物品上字体是否正确等,初判影片是否为AI生成。
面对愈来愈逼真的AI假影片,戴毓辰建议民众以3种方式判断,首先是留意AI生成标注,
目前多个社群平台已要求创作者标记AI生成内容,如YouTube引入AI内容揭露标签,民众
点击影片说明“更多内容”,可看到“变造或合成的内容”、“声音或影像经过大幅编辑
或为数位生成”等提醒。
其次是以图搜图查证,戴毓辰说,“这比较有办法找到破案的线索”,将影片截图并以图
搜图,可确认影片中人物是否真实存在,或找出影片相关片段,核实当事人是否曾有相同
发言,如将AI假医师“陈志明医师”以图搜图后,无法查出医师的背景资讯,只找到多部
YouTube影片,当来源都是同一个,就应该存疑。
再者,观察影片中人、事、时、地、物等情境及细节是否合理。资安院研究员厐在伟指出
,“AI假影片通常会有人、事、时、地、物不一致的地方,才需要造假”,如新闻主播播
报新闻的片段被伪造为药品宣传,便是不合理的情境。另外,他补充,AI目前仍无法完美
生成直线,因此可以放大字体,查看线条是否有凹凸之处。
戴毓辰进一步提供可观察的细节,可从人物、环境及系统层面检视,在人物层面,包含人
物五官是否不自然、是否不自然眨眼或几乎不眨眼、牙齿或手指是否糊在一起、轮廓是否
干净毛边,以及表情与语调是否匹配。
在环境及系统层面,可留意语音与字幕是否一致、光线或阴影是否合理、人物绿光反射、
文字错误、空间构造错误、不合理的运镜、低分辨率压缩痕迹、出现匪夷所思的物品、画
面是否不自然变换或延迟、快速移动的破绽、影子动态延迟等。
戴毓辰表示,当AI技术愈来愈进步,可观察的破绽势必愈来愈少,不过,民众多一分怀疑
,养成检视AI生成标注、以图搜图、影片情境合理性等查核习惯,就能大幅降低受骗风险
。(编辑:潘羿菁)1150125
https://www.cna.com.tw/news/ait/202601250022.aspx