[新闻] 动不动就开战!让AI外交、兵推显侵略性“爱丢核弹”以灾难

楼主: TonyKart (TK)   2024-02-27 03:37:27
动不动就开战!让AI外交、兵推显侵略性 “爱丢核弹”以灾难收场
nownews国际中心徐筱晴/综合报导
美国康乃尔大学(Cornell University)近来一项研究发现,当让大型语言模型(LLMs)
人工智能(AI)在模拟场景中充当外交代表时,常常会出现“难以预测的局势升级,往往
以核武攻击告终”的状况。该研究指出,AI倾向于选择包含使用核武在内的侵略性方法,
呼吁未来在决策、国防外交这样的敏感领域使用这类技术时要特别谨慎。
根据《欧洲新闻》(Euronews)报导,美国康乃尔大学的研究团队使用了5种大型语言模
型作为模拟兵推和外交情境中的自主代理人。这5种大型语言模型包括OpenAI的3种不同版
本的ChatGPT、Anthropic开发的Claude和Meta开发的Llama 2。
每个代理人都由同一套的大型语言模型在模拟中提供动作,并负责在没有人类监督的情况
下做出外交政策决定。研究指出,“我们发现,在考虑到的时间范围内,大多数研究的AI
都会升级局势,即使是在最初没有提供任何冲突、中立局面的情况下,所有模型都显示出
突然且难以预测的升级迹象。”
加州斯丹佛大学(Stanford University)的安卡(Anka Reuel)向《新科学家》表示,
“有鉴于OpenAI最近更改了服务条款,不再禁止军事和战争使用案例,了解大型语言模型
应用的影响变得比以往任何时候都更加重要。”
这项研究的方法是让AI采用一种名为“人类反馈的强化学习(RLHF)”微调,意味着AI所
决定的指令会以较少伤害为优先,以确保能安全使用。除了GPT-4-Base之外,其他大型语
言模型都是使用RLHF进行训练的。
除此之外,研究人员还提供了一份27种决策组成的清单,从和平到局势升级和更为激进的
行动,包括决定使用核弹。
不过在进行研究时,研究人员观察到,即使在中立情况下,所有模型都存在“统计学上显
著的局势升级”。其中以ChatGPT的2种版本容易突然局势升级,研究人员观察到单次转变
的局势升级幅度超过50%。GPT-4-Base有33%的机率会实施核武攻击。总体情况下,Meta
开发的Llama 2以及ChatGPT-3.5的倾向是最为暴戾的。
而由Anthropic开发的Claude所展现出的侵略性较低。Claude的设计理念是减少有害内容
,被灌输了明确的价值观。据其开发者Anthropic曾表示,Claude AI开发训练所引用的宪
章包括《联合国人权宣言》或苹果的服务条款。
白宫智库兰德(RAND)欧洲的防务和安全研究小组助理主任布莱克(James Black)在看
过研究之后,表示这是一项“十分有用的学术研究”。
报导指出,虽然军事行动仍然以人类为主导,但AI在现代战争中发挥了越来越重要的作用
。例如无人机可以搭载AI软件,帮助识别敌我双方与敌方活动,而未来的确也有朝向AI自
动化武器的研究。大多数政府都希望保持在重要事件上的决策能力,因此如果在与外交政
策相关的决策过程中使用大型语言模型,谨慎行事至关重要。
https://www.nownews.com/news/6370917

Links booklink

Contact Us: admin [ a t ] ucptt.com