[新闻] 霍金:人工智能可能是人类文明的终结者

楼主: threee (阿三哥)   2017-04-27 21:34:12
https://udn.com/news/story/7333/2428982
霍金北京演讲:人工智能可能是人类文明的终结者
2017-04-27 13:10 联合报 记者郭玫君╱即时报导
著名物理学家史蒂芬‧霍金今在北京举办的全球移动互联网大会上视讯演讲。霍金重申,
人工智能崛起要嘛是人类最好的事情,要嘛就是最糟糕的事情,人工智能有可能是人类文
明史的终结。
他认为,人类需警惕人工智能发展威胁。因为人工智能一旦脱离束缚,以不断加速的状态
重新设计自身,人类由于受到漫长的生物进化的限制,将无法与之竞争,从而被取代。
以下澎湃新闻刊载的霍金演讲简要内容:
在我的一生中,我见证了社会深刻的变化。其中最深刻的,同时也是对人类影响与日俱增
的变化,是人工智能的崛起。简单来说,我认为强大的人工智能的崛起,要嘛是人类历史
上最好的事,要嘛是最糟的。
我不得不说,是好是坏我们仍不确定。但我们应该竭尽所能,确保其未来发展对我们和我
们的环境有利。我们别无选择。我认为人工智能的发展,本身是一种存在着问题的趋势,
而这些问题现在和将来必须解决。
人工智能的研究与开发正迅速推进。也许我们所有人都应该暂停片刻,把我们的研究重复
从提升人工智能能力,转移到最大化人工智能的社会效益上面。
我们无法知道我们将无限地得到人工智能的帮助,还是被藐视并被边缘化,或者很可能被
它毁灭。的确,我们担心聪明的机器将能够代替人类正在从事的工作,并迅速地消灭数以
百万计的工作岗位。
人工智能从原始形态不断发展,并被证明非常有用,但我也在担忧创造一个可以等同或超
越人类的事物所导致的结果:人工智能一旦脱离束缚,以不断加速的状态重新设计自身。
人类由于受到漫长的生物进化的限制,无法与之竞争,将被取代。
这将给我们的经济带来极大的破坏。未来,人工智能可以发展出自我意志,一个与我们冲
突的意志。尽管我对人类一贯持有乐观的态度,但其他人认为,人类可以在相当长的时间
里控制技术的发展,这样我们就能看到人工智能可以解决世界上大部分问题的潜力。但我
并不确定。
现在,关于人工智能的研究正在迅速发展。这一研究可以从短期和长期来讨论。一些短期
的担忧在无人驾驶方面,从民用无人机到自主驾驶汽车。比如说,在紧急情况下,一辆无
人驾驶汽车不得不在小风险的大事故和大概率的小事故之间进行选择。
另一个担忧在致命性智慧自主武器。他们是否该被禁止?如果是,那么“自主”该如何精
确定义。如果不是,任何使用不当和故障的过失应该如何问责。还有另外一些担忧,由人
工智慧逐渐可以解读大量监控资料引起的隐私和担忧,以及如何管理因人工智能取代工作
岗位带来的经济影响。
长期担忧主要是人工智能系统失控的潜在风险,随着不遵循人类意愿行事的超级智慧的崛
起,那个强大的系统威胁到人类。这样错位的结果是否有可能?如果是,这些情况是如何
出现的?我们应该投入什么样的研究,以便更好的理解和解决危险的超级智慧崛起的可能
性,或智慧爆发的出现?
也许在这种新技术革命的辅助下,我们可以解决一些工业化对自然界造成的损害。简而言
之,人工智能的成功有可能是人类文明史上最大的事件。但是人工智能也有可能是人类文
明史的终结,除非我们学会如何避免危险。
我曾经说过,人工智能的全方位发展可能招致人类的灭亡,比如最大化使用智慧性自主武
器。
今年早些时候,我和一些来自世界各国的科学家共同在联合国会议上支持其对于核武器的
禁令。我们正在焦急的等待协商结果。目前,九个核大国可以控制大约一万四千个核武器
,它们中的任何一个都可以将城市夷为平地,放射性废物会大面积污染农田,最可怕的危
害是诱发核冬天,火和烟雾会导致全球的小冰河期。
这一结果使全球粮食体系崩塌,末日般动荡,很可能导致大部分人死亡。我们作为科学家
,对核武器承担著特殊的责任,因为正是科学家发明了它们,并发现它们的影响比最初预
想的更加可怕。
现阶段,我对灾难的探讨可能惊吓到了在座的各位。很抱歉。但是作为今天的与会者,重
要的是,你们要认清自己在影响当前技术的未来研发中的位置。我相信我们团结在一起,
来呼吁国际条约的支持或者签署呈交给各国政府的公开信,科技领袖和科学家正极尽所能
避免不可控的人工智能的崛起。
作者: yspen (国境之南奇幻旅程)   2016-04-27 21:34:00
SKYNET笑而不答
作者: Hateson (曾经沧海难为水)   2016-04-27 21:34:00
二次文艺复兴 人类灭亡
作者: goodman5566 (好人56)   2016-04-27 21:34:00
电影演很多次了
作者: lockbolt (l234)   2016-04-27 21:34:00
自介文
作者: nerevian (I GET YOU)   2017-04-27 21:35:00
科幻悲剧看太多 沽名钓誉老番癫
作者: FlynnZhang (●—●)   2017-04-27 21:35:00
霍金就是人工智能机器人啊
作者: tsairay (火の红宝石)   2017-04-27 21:35:00
地平线!
作者: ce1671821 (台北都敏俊)   2017-04-27 21:36:00
楼下杜奕谨
作者: Carrarese (母鸡带小鸭)   2017-04-27 21:36:00
是要讲几次
作者: mecca (咩卡)   2017-04-27 21:38:00
问题是只存在于软件的智慧还是有限制
作者: lponnn (快乐的狼)   2017-04-27 21:38:00
其实霍金也是葛ai之前外星人在剑桥随便挑一个人注入程式不过因为相容性问题 导致霍金失去行动的能力qq
作者: Lucifer888 (Lucifer888)   2017-04-27 21:40:00
现在那葛ai已经跑到轮椅上了
作者: VOLK11 (VOLK)   2017-04-27 21:40:00
攻壳看太多了啦人不可能完全沈迷人工智能
作者: lponnn (快乐的狼)   2017-04-27 21:41:00
最近外星人的国科会又拨经费下来了 相容性问题应该很快就
作者: VOLK11 (VOLK)   2017-04-27 21:41:00
只是一时好奇,跑程式不自然
作者: kerodo (kerodo)   2017-04-27 21:41:00
天网2.0
作者: Atwo (A兔)   2017-04-27 21:43:00
拜托 能做好文章翻译的工作就很了不起了 不指望你毁灭人类
作者: cat5672 (尾行)   2017-04-27 21:43:00
另一个说法是AI会让凡人失去价值 毕竟AI是种超级资本只剩下超级有钱人和超级天才能继续创造价值也就是终结人类的不会是AI 而是利用AI的人类
作者: loxjjgu (ゼノ)   2017-04-27 21:48:00
出现比人类更优秀的物种继承人类的意志探索宇宙存在的意义难道不好吗?
作者: pilifonbao (台湾独立)   2017-04-27 21:48:00
这家伙都是负面担忧居多
作者: tzouandy2818 (Naked Bear)   2017-04-27 21:48:00
干话阿伯

Links booklink

Contact Us: admin [ a t ] ucptt.com