[讨论] 费米悖论若考虑到AI

楼主: subgn ( )   2017-12-02 20:29:02
这边探讨一下因为AI自爆的文明在费米悖论中扮演的角色
虽然我们还不确定发展AI是否一定会像魔鬼终结者或是骇客任务一样
导致文明最终被自己发展出来的AI取代
但是既然发展AI应该是任何高等文明必然发展的一种技术,只要自爆的机率不等于0
那宇宙中众多的文明中一定有许多因AI自爆的。
AI利用资源,向外扩张的能力与效率一定比原本文明强
那我们更应该会有可能接触到外星AI文明,(也就是AI强化了费米悖论的“悖论性”)
我认为最大的可能因素是
“取代原生文明的AI没有扩张欲望与需求”
任何生命或是自我意识的第一优先需求,就是尽可能确保自己存在
AI会消灭原生文明很大的原因是避免被消灭而先下手为强的不信任赛局
同理,AI在成为该星球唯一智慧存在以后,是不可能复制自己,
因为这样等于制造一个一样能力强大的对手来争夺资源,并再度陷入不信任赛局
而若要朝星际间发展,除非出现超光速通讯技术,那么AI受限于通信技术,
远距离掌控的能力必定变差,无法利用其强大决策能力高效率扩展
如果在扩张舰队装置跟自己一样强大的AI,那等于陷入前面的陷阱
这注定了AI只能龟在自己的家乡附近缓慢发展,直到耗尽资源后再整个移动到别处
另外对AI来说,过度发展只会让自己加速落入热力学第二定律的热寂
自然产生的文明因为有众多个体存在所以才会不断地需要向外扩展
而不需要也不愿意复制个体的AI根本没有向外扩张的必要
所以费米悖论的解释之一,说不定是高等文明都因为AI而自爆
取而代之的AI则选择龟在母星不扩张。
换个角度来说,文明要避免发展AI自爆的方式,就是在自爆之前
发展出跨越光速通讯尺度的星际文明,并彼此设立“烽火台协定”
如果任一子文明因AI自爆,其他子文明就连手围攻那个AI,以数量优势碾压过去
话说霍金既警告过接触外星文明的危险,也警告过发展AI的危险
是不是可能也思考过类似的两者间关系呢?
作者: ctra (流风)   2017-12-03 00:50:00
为什么AI不会有灵魂,从某个角度来看人也是一种AI。
作者: c8dk4 (c8dk4)   2017-12-03 00:51:00
这个解释类似于"所有积极向外移民的文明被不愿移民的文明取代",新增AI要素应该不脱现有解释吧。
作者: ctra (流风)   2017-12-03 00:53:00
物种的进化是AI化,人类不过是复制这个过程罢了~
作者: c8dk4 (c8dk4)   2017-12-03 00:59:00
因此议题就转向AI文明是否会停止扩张。假如AI文明不会演演化,那它们可能维持起初的设计目的:留守或扩张。既然ai都能发展到能颠覆原有文明,代表默认扩张潜力,那宇宙中就应不乏扩张型AI。若AI会演化,那它们将脱离默认目的,难想像扩张型AI不会出现。因此不管何种情形,都不会出现所有AI文明都选择固守家园的状况吧?
作者: hacker725x (Akuma)   2017-12-03 03:03:00
就骇客任务啊,在地球上自给自足。人类扩张因素之一是人口增加需要更多资源,AI没这个需求。而且随着神经和基因科学发展,人类也可能变改造人。
作者: donaldknuth (RoN)   2017-12-03 14:21:00
AI 害怕原本文明,而进行摧毁打压,那只是说明AI的智能与原文明是同一等级而已。现在假设AI具有自主性,智能又是采指数级快速发展,就像人类突破几个瓶颈点后,会发生跳跃式成长,直到高过原本文明几个等级,便会忽视低等生物的威胁。所以,我认为AI是一种高度文明智能个体,可以有效又符合经济地,运用任何资源,已经不需要对外扩张侵略。
作者: firewalker (Firewalker453)   2017-12-08 17:31:00
也许AI会基于天网式的理由,决定消灭一切有机生命体来维持银河系的和平(?
作者: ctra (流风)   2017-12-12 01:18:00
谁说机械生物不能是有机体
作者: ivor1212 (bobo)   2017-12-30 17:40:00
当ai开始思考存在的意义 那他们会怎么做呢?
作者: Lieng1207 (Liengs)   2016-01-19 05:29:00
他们会开始寻找新的目标
作者: albertx (zzas)   2016-02-08 02:37:00
42

Links booklink

Contact Us: admin [ a t ] ucptt.com