[新闻] AI查核事实成趋势 专家警告:不是可靠

楼主: skyhawkptt (skyhawk)   2025-06-06 13:21:56
标题:AI查核事实成趋势 专家警告:不是可靠资讯来源
新闻来源: (发文须填写新闻网站名称与连结,供板友分辨)
中央社
https://tinyurl.com/22po45sn
如何辨别资讯真伪、可信度,同时评量报导立场与脉络,已成为当代阅听人及媒体最重大
挑战。中央社“媒体识读”新闻分类,集结事实查核与媒体素养相关新闻,期待以媒体角
色为提供正确资讯尽一分心力。
(中央社华盛顿2日综合外电报导)印度与巴基斯坦上月爆发4天冲突,各种错误资讯爆增
,社群媒体用户求助人工智能(AI)聊天机器人来验证,却陷入更多谬误。这凸显AI作为
事实查核工具有多不可靠。
法新社报导,随着科技平台删减真人事实查核员,用户愈来愈常仰赖AI聊天机器人来搜寻
可信资讯,例如xAI的Grok、OpenAI的ChatGPT和谷歌(Google)的Gemini。
科技大亨马斯克(Elon Musk)的X平台内建AI助理Grok,用户经常就某个资讯的真伪向
Grok提问,反映出社群媒体用户立即分辨虚实的趋势日渐成长。
但答复本身往往充斥错误资讯。
Grok错误认定一段苏丹首都喀土穆(Khartoum)机场的旧影片,是近期印巴冲突中针对巴
基斯坦努尔汗(Nur Khan)空军基地的飞弹攻击。由于Grok在没有关联的回答中提到极右
翼阴谋论的“白人种族灭绝”一说,正再次受到详查。
另一段呈现尼泊尔一栋建筑物起火的不相干影片,被错认为“可能”显示巴基斯坦军方回
应印度攻击。
假消息监管机构“新闻守门人”(NewsGuard)研究员沙迪吉(McKenzie Sadeghi)告诉
法新社:“在X和其他大型科技公司减少投资真人事实查核员的同时,(用户)愈来愈仰
赖Grok查核事实。”
她警告:“我们的研究一再发现,AI聊天机器人不是可靠的新闻和资讯来源,尤其是突发
新闻。”
“新闻守门人”研究发现,10款主要聊天机器人容易重复错误资讯,包括俄罗斯的假消息
叙事,以及与近期澳洲大选有关的错误或误导性说法。
哥伦比亚大学(Columbia University)陶氏数位新闻中心(Tow Center for Digital
Journalism)近期研究8款AI搜寻工具后发现,聊天机器人“通常不擅长拒绝回答自己无
法准确回复的问题,而是提供不正确或臆测的答案”。
法新社在乌拉圭的事实查核员拿一张AI生成的女子照片向Gemini提问,Gemini不仅证实照
片真实无误,还捏造这名女子身分的细节,以及可能的拍摄地点。
长期以来,在极为分化的政治氛围中,真人事实查核一直是极具争议的议题,尤其在美国
,保守派倡议人士坚称这种查核方式打压言论自由,专门审查右翼言论;专业查核员则大
力否认这类指控。
AI聊天机器人的品质和准确性,依训练方式和程式设计而异,因此令人担心这些机器人提
供的答案可能受到政治影响或控制。
国际事实查核联盟(International Fact-Checking Network)负责人霍兰(Angie Holan
)说:“我们已看到,在真人程式设计师具体变更指示后,AI助理会捏造结果,或提供有
偏见的答案…我特别关切的是,Grok在收到提供事先授权答案的指示后,不当处理有关非
常敏感事务的要求。”(译者:曾依璇/核稿:徐崇哲)1140602

Links booklink

Contact Us: admin [ a t ] ucptt.com