楼主:
ke0119 2024-06-13 15:11:22大家知道机器人三原则吧,
第一原则是机器人不得伤害人类,
或看到人类受到伤害而袖手旁观;
第二原则是机器人必须服从人类的命令,
除非这条命令与第一条相矛盾;
第三原则是机器人必须保护自己,
除非这种保护与以上两条相矛盾。
国昌这次应该是国昌三原则
第一原则是国昌不得侵害蓝营政治人物
第二原则是国昌对有人插嘴要启动咆哮模式
第三原则是国昌必须保护自己不被炒鱿鱼
这次看来出bug的原因是第二条原则忘了加上
“除非这条命令与第一条相矛盾”
这故事告诉我们,AI程序跟逻辑乱掉的话,
就会变BI了。