这边探讨一下因为AI自爆的文明在费米悖论中扮演的角色
虽然我们还不确定发展AI是否一定会像魔鬼终结者或是骇客任务一样
导致文明最终被自己发展出来的AI取代
但是既然发展AI应该是任何高等文明必然发展的一种技术,只要自爆的机率不等于0
那宇宙中众多的文明中一定有许多因AI自爆的。
AI利用资源,向外扩张的能力与效率一定比原本文明强
那我们更应该会有可能接触到外星AI文明,(也就是AI强化了费米悖论的“悖论性”)
我认为最大的可能因素是
“取代原生文明的AI没有扩张欲望与需求”
任何生命或是自我意识的第一优先需求,就是尽可能确保自己存在
AI会消灭原生文明很大的原因是避免被消灭而先下手为强的不信任赛局
同理,AI在成为该星球唯一智慧存在以后,是不可能复制自己,
因为这样等于制造一个一样能力强大的对手来争夺资源,并再度陷入不信任赛局
而若要朝星际间发展,除非出现超光速通讯技术,那么AI受限于通信技术,
远距离掌控的能力必定变差,无法利用其强大决策能力高效率扩展
如果在扩张舰队装置跟自己一样强大的AI,那等于陷入前面的陷阱
这注定了AI只能龟在自己的家乡附近缓慢发展,直到耗尽资源后再整个移动到别处
另外对AI来说,过度发展只会让自己加速落入热力学第二定律的热寂
自然产生的文明因为有众多个体存在所以才会不断地需要向外扩展
而不需要也不愿意复制个体的AI根本没有向外扩张的必要
所以费米悖论的解释之一,说不定是高等文明都因为AI而自爆
取而代之的AI则选择龟在母星不扩张。
换个角度来说,文明要避免发展AI自爆的方式,就是在自爆之前
发展出跨越光速通讯尺度的星际文明,并彼此设立“烽火台协定”
如果任一子文明因AI自爆,其他子文明就连手围攻那个AI,以数量优势碾压过去
话说霍金既警告过接触外星文明的危险,也警告过发展AI的危险
是不是可能也思考过类似的两者间关系呢?