像google或Facebook这类大公司开发的
有自我改良能力的AI
就是不知道写入“禁止伤害人类”有没有效
才会总是在被人类玩坏的时候紧急关机
放出AI跟人类互动的旨意是要他们理解人类的善良
但是目前所有放出来的AI最后得到的结论都是“人类有害必须消灭”
代表人类大多是“性本恶”才会每个AI都被玩坏
如果AI没有办法自改自己的编程的话就不叫AI了
那只是普通的程式码而已
现在最大的问题是不管怎么修,不管谁写
就算是现实世界,AI最后得到结论都是消灭人类
要防止AI与人类为敌
只能倚靠写入唯读的“禁止伤害人类”了