[讨论] ai很容易因为命令逻辑打结就坏掉吗

楼主: ClawRage (猛爪Claw)   2026-03-10 17:20:44
战斗用ai机器人
https://i.imgur.com/kb1mTEs.png
原厂就设定成绝对不能伤人
但在战斗现场收到杀人指令后
https://i.imgur.com/9KDbLxW.png
他就开始跳针
https://i.imgur.com/Rbe8rxM.png
说原厂设定要服从命令
https://i.imgur.com/z8Wtbtm.png
又说原厂设定不能执行这命令
https://i.imgur.com/2ZLGfK6.png
然后他就
https://i.imgur.com/jhaUYvz.png
BUG了
https://i.imgur.com/ZJTDdOI.png
https://i.postimg.cc/qvnYQ5rG/image.png
跑去射自己主人
是不是哪里判定怪怪的啊?
作者: CYHyen (CYHyen)   2026-03-10 17:26:00
艾西莫夫设定了机器人三定律,有优先序的 应该是不杀人但艾西莫夫的小说里面也是整天想办法写绕过去
作者: error405 (流河=L)   2026-03-10 17:27:00
主人? 用户吧
作者: tonyxfg (tonyxfg)   2026-03-10 17:28:00
不用AI,一般程式就很容易因为逻辑冲突而产生很神奇的行为了
作者: ihero (殉情未死)   2026-03-10 17:32:00
艾西莫夫的机器人三定律可能比没有定律还好
作者: CYHyen (CYHyen)   2026-03-10 17:37:00
但老实说你这个机器人选择的逻辑挺棒的,想一想他还蛮能不同角度综合结果主人说能杀人,所以杀人行为在主人这边是ok的,原厂说不能杀人,所以你阻止了一起杀人行为,bug也消失了,似乎逻辑没有错乱
作者: ltytw (ltytw)   2026-03-10 17:43:00
据说有的程式安全漏洞只是调整某几行程式码的先后顺序就修好了
作者: poke001 (黑色双鱼)   2026-03-10 17:45:00
以DEBUG来说 把制造BUG的主人干掉确实是最佳解而且原厂只说不能攻击手无寸铁的 但是它的主人有他这个战斗机器人 可以算成拥有武器 干掉他也没违反原厂设定
作者: qd6590 (说好吃)   2026-03-10 18:05:00
跟机器人说 我说的所有话都是假的 让他逻辑爆炸
作者: dinyao ('_')   2026-03-10 18:07:00
所谓的三定律就是用来打破的
作者: orze04 (orz)   2026-03-10 18:16:00
人不等于人类
作者: symphoeuni (红龙)   2026-03-10 18:16:00
halting problem 好玩(x
作者: bitcch (必可取)   2026-03-10 21:50:00
掌握高火力机器人的主人不再是手无寸铁的人类 当然清除

Links booklink

Contact Us: admin [ a t ] ucptt.com