楼主:
yokann (欧洲)
2024-05-13 06:39:20新闻标题:慎防深伪诈骗 刑事局吁“眼见不一定为凭”
新闻内容:
〔记者姚岳宏/台北报导〕股神巴菲特近日发出警语,担忧AI人工智能将对人类造成重大
威胁,还说近期已看到“巴菲特深度伪造”影音,巴菲特担忧自己的脸孔及声音轻易被AI
复制、仿造,就连他的妻子及孩子都很难确定真伪,甚至说出“我可能被骗到把钱汇给自
己”;刑事警察局指出,目前尚未接获犯嫌利用深度伪造影像进行诈骗之报案纪录,惟变
造图像或是声音之诈骗案例开始出现,提醒民众特别小心。
巴菲特本月4日于旗下波克夏.海瑟威公司(Berkshire Hathaway)年度股东大会,再次
将AI比喻为核武,警告大家世界已经将精灵从瓶子里放出来,如果使用不当,将对社会造
成毁灭性后果,尤其是AI深伪技术如被有心人不法滥用,势必将严重影响现行世界的稳定
与衡平。
刑事局表示,虽然还未发现深伪影像诈骗,但次一阶的变造图像或声音的诈骗案例已开始
出现。南部地区近期有女子于脸书广告看到女星刘嘉玲佩挂佛像护身项链的图片,认同明
星虔诚向佛,花费近新台币7千元向该商家购买护身手环,但收到商品后感觉手环做工粗
糙,上网搜寻,发现女星实际是佩戴玉珮项链,该卖家的广告图片是盗图后变造。
刑事局指出,AI科技为生活带来革命性的便利,但也使得非法手段透过AI变得更为简易且
逼真;AI时代中“眼见不一定为凭”,民众若遇影音电话要求汇款或询问个资等,都可以
试着“1.与亲友约定通关密语、2.要求对方在脸部前挥挥手或摆摆头、3.直接打给对方查
证”或是谨记防诈3步骤“1.听、2.挂、3.查证”,如有任何疑问可随时拨打110或165反
诈骗咨询专线咨询。
新闻连结:https://news.ltn.com.tw/news/society/breakingnews/4670490
心得:
感觉AI应用在犯罪上会让人更容易掉入陷阱,现在的提防跟警戒心可能要重新建立了.
很多以前认为万无一失的凭证(如认脸)可能也带有风险了...