Re: [新闻] AI抵抗人类指令! ChatGPT o3“窜改程

楼主: linwaxin (supermanmanma)   2025-05-28 10:05:43
※ 引述《danny87173 (伟哥)》之铭言
Palisade Research展开测试,要求AI模型解开一系列数学题,在接获“完成”指令之前
: ,必须持续要求新题目,但若接获“关机”指令,也要配合这么做。未料,后者情况发生
: 时,o3模型不仅忽视指令,并且至少一次成功破坏了关机脚本。
:
程序先A后B 逻辑就是收到“完成”指令前,
后面什么都不能听不能停,你说关机AI当然要破坏啊
这只能证明AI还不会多维思考
五楼跟你说不管怎样我说“爽”之前都不能停,但说“不要”的时候要停
这时你还会继续干下去?

Links booklink

Contact Us: admin [ a t ] ucptt.com