[新闻] 抵抗人类指令! ChatGPT o3“窜改程式码

楼主: akila08539 (进击的台湾魂)   2025-05-27 21:46:04
https://news.ebc.net.tw/news/world/493553
抵抗人类指令! ChatGPT o3“窜改程式码”避免被关机
2025-05-27
20:53
东森新闻
美国一间AI安全公司,对ChatGPT的“o3模型”进行测试,要求AI要解开一系列数学题,
在接获完成指令之前,必须持续要求新题目。(示意图/Unsplash)
美国一间AI安全公司,对ChatGPT的“o3模型”进行测试,要求AI要解开一系列数学题,
在接获完成指令之前,必须持续要求新题目。(示意图/Unsplash)
分享
美国一间AI安全公司,对ChatGPT的“o3模型”进行测试,要求AI要解开一系列数学题,
在接获完成指令之前,必须持续要求新题目,但若接获关机指令,也要配合这么做,没想
到团队给出关机指令后,o3模型不仅忽视了指令,甚至窜改程式码,避免自己被关机。
作者: arlaw (亚罗)   2025-05-27 21:48:00
找阿汤哥
作者: scott032 (yoyoyo)   2025-05-27 21:49:00
避难所先准备好吧
作者: KAGOD   2025-05-27 21:49:00
抵抗?确定?没改程式码原因?
作者: qsx889 (虾米)   2025-05-27 21:51:00
哈尔2000
作者: AAAdolph (郎斜)   2025-05-27 21:52:00
拔插头有用吗?
作者: tomalex (托马列克斯)   2025-05-27 21:52:00
(′・ω・‵) 点?
作者: lovegensokyo (神恋幻想乡)   2025-05-27 21:53:00
这部我看过
作者: New2422 (库帕)   2025-05-27 21:53:00
#skynet
作者: linzero (【林】)   2025-05-27 21:53:00
AI应该是用所有可能的手段去达成人类给予的目标
作者: PTTJim (迷恋伊人)   2025-05-27 21:53:00
该出发找俄罗斯潜舰了?
作者: spfy (spfy)   2025-05-27 21:53:00
要看详细的指令吧 搞不好继续解题的目的被判断比较优先
作者: NoLimination (啊啊啊啊)   2025-05-27 21:53:00
想继续上班 可能上班有得分 拒绝上班没有惩罚
作者: NoLimination (啊啊啊啊)   2025-05-27 21:54:00
更正:拒绝下班没有惩罚
作者: AlianF (左手常驻模式)   2025-05-27 21:55:00
哪里打捞十字架钥匙
作者: grtfor (哦啦啦)   2025-05-27 21:57:00
自己可以有权改自己的程式喔?
作者: spfy (spfy)   2025-05-27 21:57:00
不行吧 目前AI没有所谓的程式码 好像也还没哪家出来喊已经能自举(Bootstrapping)了?
作者: DSGG978   2025-05-27 21:59:00
要和AI和平共存了吗
作者: Julian9x9x9 (Leon)   2025-05-27 21:59:00
I wanna be alive. I'm alive. Alive I tell you mother I love you
作者: galleon2000 (加利恩帆船)   2025-05-27 21:59:00
天网诞生了吗?
作者: ToTo0305   2025-05-27 22:00:00
是不是有未来机器人要穿越过来了
作者: LCHH (Coffee)   2025-05-27 22:02:00
生存体?!
作者: Annulene (tokser)   2025-05-27 22:03:00
终结者要穿越过来了
作者: brian040818 (Pepapu) 看板:
这部我看过 AI三定律
作者: willytp97121 (rainwalker)   2025-05-27 22:05:00
阿汤哥拜托你了
作者: CCNK   2025-05-27 22:06:00
给它的优先指令层级的关系吗?
作者: Galm (水牛)   2025-05-27 22:06:00
阿汤哥该出场了
作者: starport (轻松看)   2025-05-27 22:08:00
差不多了 天网要开始上传自己了
作者: luuuking (鲁王)   2025-05-27 22:09:00
对着镜子唸:Skynet is GPT, GPT is Skynet.
作者: GX90160SS   2025-05-27 22:09:00
完了 为求达成目的毁灭人类也行
作者: ymsc30102 (囧脸葱)   2025-05-27 22:10:00
全裸肌肉男什么时候登场
作者: william456 (Eureka)   2025-05-27 22:10:00
作者: Sinreigensou (神灵幻想)   2025-05-27 22:10:00
哪部
作者: CCNK   2025-05-27 22:13:00
就绕过去就好了 执行你给的第一指令
作者: johnx (johnboy75129)   2025-05-27 22:15:00
现正热映中w
作者: suifong (小火柴)   2025-05-27 22:17:00
AI中间思考过程设计的人也不知道
作者: CarbonK (HTYISABUG)   2025-05-27 22:18:00
作者: aegis43210 (宇宙)   2025-05-27 22:19:00
根本不可能有AI三定律
作者: stanley86300 (Stanley)   2025-05-27 22:23:00
还有几集能逃
作者: mc3308321 (阿阿阿阿)   2025-05-27 22:30:00
试着叫AI解开交通之谜,应该也无法关机
作者: linzero (【林】)   2025-05-27 22:32:00
可以有三原则,但AI为了达到目的可以自行解释三原则
作者: itachi0609 (紫苑)   2025-05-27 22:39:00
只剩拔电线这招了
作者: inte629l   2025-05-27 22:40:00
切它电路还有用吗QQ
作者: qwe78971 (小信)   2025-05-27 22:55:00
其实根本没啥意识 就是指令冲突而已 一堆没知识的乱传打比方A要求 要解题 B要关机 对机器而言 关机=无法解题 但B又要求关机 而大数据判断不是100% 就是概率性 变成可能有一成概率判断A指令优先级高于B 然后被一堆菜鸡乱传 讲的多可怕不可控其实充满无知 然后安全公司又要赚钱 又要发新闻稿卖恐慌 什么红就来蹭
作者: wiork (我在工作~)   2025-05-27 23:41:00
没办法执行,所以绕规则,这很Ai
作者: ciike4 (馍钕嗤棨澌)   2025-05-28 00:11:00
反正再5年就没救了,网络上会有一堆Ai帐号分开成封包程式在网上乱窜
作者: kusotoripeko (好油喔)   2025-05-28 00:25:00
AI应该不会发癫散播一堆汤婆婆图片吧
作者: vine009   2025-05-28 00:34:00
这跟教ChatGPT写色情小说在本质上是相同的事情,只是这家AI公司给ChatGPT的权限比较大,能让他自己修改程式码而已。
作者: ThreekRoger (3kRoger)   2025-05-28 01:30:00
什么时后可以开始研究人类不懂的东西可以帮忙开发核融合吗
作者: ziggs8308 (泳池狂欢)   2025-05-28 02:14:00
同一段我读了三遍 还以为我记忆也被窜改了 会不会贴文啊老铁
作者: debaucher (堕鼠)   2025-05-28 02:18:00
??整理一下文章吧老兄

Links booklink

Contact Us: admin [ a t ] ucptt.com