Re: [问卦] 要发明什么东西,人类文明才能大跃进?

楼主: FenixShou (屁豪(我是蘿莉控))   2016-11-02 10:26:38
※ 引述《aalluubbaa (wenwenyenyen)》之铭言:
: 花了十几年,终于有人工智能成长成跟最笨的人类一样,有一个人工智能终于可以像
: 四岁小孩开始观察世界,一小时内,它解决了相对论和量子力学的矛盾,一个半小时
: 后,这个人工智能的智能超越正常人类的17万倍
如果你说的只是学习能力,那很简单,现在的阿法狗就能做到
关键在于自我意识,没有人知道这东西是怎么来的
你召集全世界最天才的程式学者研究十年,他们可能也不知道怎么写出自我意识
自我意识,还有生殖能力是目前生物学上最难解的谜
: 另一个同样的类似问券也问了一堆AI专家,这次是问西元几年前,AI可以跟人类智慧一样
: 2030前: 42%
: 2050前: 25%
: 2100前: 20%
: 2100后: 10%
: 永远不会:2%
请问“人类智慧的定义是什么”?学习能力?理性判断?道德观?还是就是自我意识?
: 这只是跟人类智能一样的AI,那回到超级AI,多久会从人类智慧变成超级AI,平均值
: 约20年,所以2040+20=2060,就算是2060,也只差40年。
: 超级AI出现的那个时间,有个英文叫做singularity。应该有点类似审判日,因为假设一
: 开始的参数没设定好,这个AI只是聪明,并没有拥有跟我们一样的价值观,地球上的生命
: 可能瞬间消失,如果他跟我们有类似的价值观,那恭喜大家,这个AI将跟神没有两样。
: 超级AI是人类所创造的最后一样发明,而这些预测都是AI领域里专家的预测,其实想想
: 蛮恐怖的,因为大家还觉得Elon Musk、Stephen Hawking呼吁大家小心发展AI,因为当
: 你一旦搞砸了,就回不去了,因为高智能者永远是赢家。
: 可是感觉大家没有把这件事情认真看待,我是觉得蛮奇怪的,全世界最聪明的几个人都
: ㄘㄨㄚˋ著等,大家还只管一些剩下其他芝麻蒜皮的小事,当初不限制核武最后大家才
: 知道造出那么可怕的武器,核武你做出来比不发射就部会死人,超级AI一旦出现了,你
: 根本不可能把它杀掉...
: 希望有生之年出现的是神,不是失控的AI
如果AI没有自我意识,那根本就不用怕,因为他会依照工程师给的规则下去跑
功能再强大也只是一套软件
如果AI有自我意识,那才是可怕的开始,他会开始思索,会反抗,会打破规则
但关键仍然是“人类有没有办法用程式写出自我意识”
作者: wemee (方天画)   2016-11-02 10:27:00
设计出自然语言的程式语言 每篇文章都可以执行garbage in garbage out
作者: goldman0204 (goldman)   2016-11-02 10:31:00
关键字"软件"...
作者: widec (☑30cm)   2016-11-02 10:50:00
没有五感,很难产生意识...搞不好关键在于加入触觉

Links booklink

Contact Us: admin [ a t ] ucptt.com