※ 引述《aalluubbaa (wenwenyenyen)》之铭言:
: 可是感觉大家没有把这件事情认真看待,我是觉得蛮奇怪的,全世界最聪明的几个人都
: ㄘㄨㄚˋ著等,大家还只管一些剩下其他芝麻蒜皮的小事,当初不限制核武最后大家才
: 知道造出那么可怕的武器,核武你做出来比不发射就部会死人,超级AI一旦出现了,你
: 根本不可能把它杀掉...
: 希望有生之年出现的是神,不是失控的AI
不知道为什么这几年机器人三原则不流行了?
当初提出这个东西不是就是避免AI能自我思考以后伤害人类?
https://zh.m.wikipedia.org/zh-tw/%E6%9C%BA%E5%99%A8%E4%BA%BA%E4%B8%89%E5%AE%9A
%E5%BE%8B
机器人三原则:
1. 机器人不得伤害人类,或是坐视人类受到伤害
2. 不违背第一条下,服从人类命令
3.不违反第一与第二条下,保护自身的安全
在人类来说,也会想要保护社群所以作战
想要保护后代不惜以自己身体去承受伤害
常会将这两个目地放在维护自身性命之前
AI如果能把三原则想人类那样当成潜意识的生存目标
应该可以大幅降低叛乱危险
如果能将机器人三原则写死,或是强制建立在硬件构造上
应该能得到不会伤害人类的AI
还是说这个方法在目前AI的软件面上不可行?
有没有八卦?