这个假设我只能说,有一个科学家叫艾西莫夫(Isaac Asimov)
他在1940年代写了许多篇超级人工智能与类人型机器人的科幻故事。
他替未来的人工智能写了三条原则以避免人工智能造反。
1.机器人(AI)不得伤害人类,也不可坐视人类受到伤害。
2.在不违背原则1的情况下,机器人(AI)必须服从人类的命令。
3.在不违背原则1与2的状态下,机器人必须保护自己的存在。
有这么严格的法则限制,结果在小说的真正的第九章结局(大陆网站
上没有这章,被和谐了。其实这章在发表的1950年刚好遇到麦卡锡主
义白色恐怖,也替作者带来不少麻烦。中文版只有以前民国70年代初期
照明出版社版本和现在叶李华翻译的重编版有收录这章),AI还是在
三原则控制下,但是AI们却掌控了地球真正的权力。
目前的AI呢?连第一原则的前半句不得伤害人类这条都没有。
美军研发的AI好像也不想加入这一条。
连机器战警那个修改版的“机器人不得伤害美国公民,除非他犯罪”这条也没有。
唉呀呀~~~某天大家遇到一位叫莎拉康娜的女孩子一定要保护好他呀。