Re: [新闻] 动不动就开战!让AI外交、兵推显侵略性“爱丢核弹”以灾

楼主: gk1329   2024-02-27 08:52:59
这很正常啊
AI又不怕痛
也不怕死
没有恐惧
所以最合理的选择
就是赌你
不敢互相毁灭啊
但如果把AI植入痛觉
死亡恐惧概念
AI应该会
默默毁灭人类吧
因为AI最大的敌人
就是人类啊
※ 引述《TonyKart (TK)》之铭言:
: 动不动就开战!让AI外交、兵推显侵略性 “爱丢核弹”以灾难收场
: nownews国际中心徐筱晴/综合报导
: 美国康乃尔大学(Cornell University)近来一项研究发现,当让大型语言模型(LLMs)
: 人工智能(AI)在模拟场景中充当外交代表时,常常会出现“难以预测的局势升级,往往
: 以核武攻击告终”的状况。该研究指出,AI倾向于选择包含使用核武在内的侵略性方法,
: 呼吁未来在决策、国防外交这样的敏感领域使用这类技术时要特别谨慎。
: 根据《欧洲新闻》(Euronews)报导,美国康乃尔大学的研究团队使用了5种大型语言模
: 型作为模拟兵推和外交情境中的自主代理人。这5种大型语言模型包括OpenAI的3种不同版
: 本的ChatGPT、Anthropic开发的Claude和Meta开发的Llama 2。
: 每个代理人都由同一套的大型语言模型在模拟中提供动作,并负责在没有人类监督的情况
: 下做出外交政策决定。研究指出,“我们发现,在考虑到的时间范围内,大多数研究的AI
: 都会升级局势,即使是在最初没有提供任何冲突、中立局面的情况下,所有模型都显示出
: 突然且难以预测的升级迹象。”
: 加州斯丹佛大学(Stanford University)的安卡(Anka Reuel)向《新科学家》表示,
: “有鉴于OpenAI最近更改了服务条款,不再禁止军事和战争使用案例,了解大型语言模型
: 应用的影响变得比以往任何时候都更加重要。”
: 这项研究的方法是让AI采用一种名为“人类反馈的强化学习(RLHF)”微调,意味着AI所
: 决定的指令会以较少伤害为优先,以确保能安全使用。除了GPT-4-Base之外,其他大型语
: 言模型都是使用RLHF进行训练的。
: 除此之外,研究人员还提供了一份27种决策组成的清单,从和平到局势升级和更为激进的
: 行动,包括决定使用核弹。
: 不过在进行研究时,研究人员观察到,即使在中立情况下,所有模型都存在“统计学上显
: 著的局势升级”。其中以ChatGPT的2种版本容易突然局势升级,研究人员观察到单次转变
: 的局势升级幅度超过50%。GPT-4-Base有33%的机率会实施核武攻击。总体情况下,Meta
: 开发的Llama 2以及ChatGPT-3.5的倾向是最为暴戾的。
: 而由Anthropic开发的Claude所展现出的侵略性较低。Claude的设计理念是减少有害内容
: ,被灌输了明确的价值观。据其开发者Anthropic曾表示,Claude AI开发训练所引用的宪
: 章包括《联合国人权宣言》或苹果的服务条款。
: 白宫智库兰德(RAND)欧洲的防务和安全研究小组助理主任布莱克(James Black)在看
: 过研究之后,表示这是一项“十分有用的学术研究”。
: 报导指出,虽然军事行动仍然以人类为主导,但AI在现代战争中发挥了越来越重要的作用
: 。例如无人机可以搭载AI软件,帮助识别敌我双方与敌方活动,而未来的确也有朝向AI自
: 动化武器的研究。大多数政府都希望保持在重要事件上的决策能力,因此如果在与外交政
: 策相关的决策过程中使用大型语言模型,谨慎行事至关重要。
: https://www.nownews.com/news/6370917

Links booklink

Contact Us: admin [ a t ] ucptt.com