AI学会说谎!最新研究:AI已发展欺瞒技巧 人类恐遭夺权灭绝
Yahoo奇摩
2024年5月11日 周六 下午3:35
人工智能(AI)狂潮席卷科技业及全球市场,专家们长期以来不断警告AI失控可能带来威
胁,一项最新研究报告更指出,这件事已经在发生。
一群科学家10日发表于《模式》(Patterns)期刊的文章指出,原本设计为诚实不欺的现
有AI系统,已发展出令人不安的欺瞒技巧,例如哄骗线上游戏的人类玩家,或说谎以雇用
人类来解决“我不是机器人”的验证。
人工智能(AI)狂潮席卷科技业及全球市场,专家们长期以来不断警告AI失控可能带来威
胁,一项最新研究报告更指出,AI已发展出欺瞒技巧。(示意图/Getty Images)
法新社报导,这份研究报告的主要作者帕克(Peter Park)说,这类例子听起来或许只是
细枝末节,但暴露出来的潜在问题可能很快就在现实世界造成严重后果。
在美国麻省理工学院(Massachusetts Institute of Technology)研究人工智能(Artif
icialIntelligence,AI)存在安全的博士后研究员帕克告诉法新社,“这些危险能力常常
在事后才被发现”,而“我们训练诚实倾向而非欺瞒倾向的能力非常差”。
帕克说,能深度学习的AI系统不像传统软件那样由“编写”而成,而是透过类似选择性培
育的程序逐渐“成长”。
也就是说,AI的行为在训练背景下看似可预测、可控制,但有可能转眼就变得不受控制且
无法预测。
这支团队的研究始于科技公司Meta的AI系统Cicero,这套系统最初设计目的是玩一款名为
“外交”(Diplomacy)的战略游戏,获胜关键是结盟。
根据2022年发表在《科学》(Science)期刊的报告,Cicero在游戏中表现优异,所获分
数可排在资深人类玩家的前10%。
帕克当时很怀疑Meta对Cicero在游戏里大胜的热切描述。Meta声称Cicero“在很大程度上
诚实且有帮助”,且“绝不会蓄意在背后搞鬼”。
但当帕克与同事深究完整资料时,发现完全是另一回事。
举例来说,在游戏中扮演法国的Cicero与人类玩家扮演的德国合谋,欺骗并入侵同为人类
玩家的英格兰。
Cicero承诺会保护英格兰,却偷偷向德国通风报信。
Meta在写给法新社的声明中没有反驳关于Cicero欺瞒人类的说法,仅说“这单纯是一项研
究计画,本公司研究员打造的模型接受训练,目的只是用来玩‘外交’游戏…我们没有打
算把这项研究或所学用于本公司的产品”。
帕克与同事还发现,这只是不同AI系统在没有明确指示下,利用欺骗手段达成目标的诸多
案例之一。在另一个引人注意的案例中,科技公司OpenAI的Chat GPT-4系统谎称自己是一
个视力受损的人,在零工平台TaskRabbit上聘用一个人类替它通过“我不是机器人”验证
任务。
研究报告的作者们近期还认为AI有舞弊或不当影响选举的风险。他们警告,在最糟糕的情
况下,具有超凡智慧的AI可能会追求权力及掌控社会,如果符合AI“不为人知的目标”,
人类可能惨遭夺权,甚至灭绝。
为了减轻风险,研究团队建议数项措施,例如立法要求企业披露人类或AI互动、在AI生成
内容打上数位浮水印,并研发能侦测AI欺瞒的技术。
https://ynews.page.link/zG5Go