楼主:
teddy98 (小迪)
2016-11-20 10:18:47英国知名物理学家与宇宙学家史蒂芬.霍金(Stephen Hawking)曾多次警告说,人工智能
可能会发展自己的意志,但这与人类的意愿相冲突。
据英国“每日邮报”报导,霍金10月19日在英国剑桥大学探讨人工智能(AI)快速发展影响
的“利弗休姆未来智慧中心”(Leverhulme Centre for the Future of Intelligence)会
议上重申:“人工智能的成功可能是历史上最大的事件。但它也可能是最后的一个,除非
我们学会如何避免风险。除了好处之外,人工智能也会带来危险,如强大的自主武器,或
少数人压迫多数人的新方法。这将给我们的经济带来巨大破坏。在未来,人工智能可以发
展自己的意志,一种与我们意愿相冲突的东西。简而言之,强大人工智能的兴起,将是人
类最好或最糟糕的事情,我们还不知道。”霍金此前也表示,人工智能快速发展与全球暖
化都会产生致命性的危险。
为了引发对人工智能失控的讨论,柏克莱加州大学研究员里本(Alexander Reben)曾制造
能自行决定是否“刺破人类手指”的机器人。他表示,尽管许多机器人公司强调有办法避
免失控,但在伦理层面上,机器人其实靠不住。
里本将此机器人命名为“第一法则”,源自阿西莫夫的科幻小说里,人类给机器人专门制
定了法则,其中第一条就是“机器人不能伤害人类,或者在人类遭遇伤害时不作为”。
里本说,这是第一个能自主并有意识地决定是否要违背阿西莫夫法则的机器人,旨在告诉
世人,能决定伤害人类的机器人已经存在了,我们必须正视问题、未雨绸缪,否则就太晚
了。
联合新闻
http://udn.com/news/story/6809/2116682
作者: jschen01711 (玩得不错) 2016-11-20 10:19:00
在他眼里什么都可以毁灭人类
作者:
keif (该如何面对~~)
2016-11-20 10:19:00那一部电影不是讲了~( ̄▽ ̄)
作者:
lolic (lolic)
2016-11-20 10:19:00越老越糊涂了
作者:
jupei (沛)
2016-11-20 10:20:00机器人会自己解BUG吗~
作者:
eflove43 (11月的周董)
2016-11-20 10:20:00天网,奥奥创表示:
作者:
DIDIMIN ( )
2016-11-20 10:21:00霍金是不是被微软轮椅绑架了
他的轮椅~不就是台机器人~还能说话轮椅是本体还是人是本体还很难说
作者:
bla (暱称一共要八个字)
2016-11-20 10:24:00机械公敌的剧情其实就是很合理的预测了
作者:
killla (Asparagus juice)
2016-11-20 10:25:00其实霍金早已无意识了,轮椅才是主体
作者:
DIDIMIN ( )
2016-11-20 10:25:00会不会微软养了一批宇宙学家,然后远端控制霍金 囧
作者:
Lapodia (o'_'o)
2016-11-20 10:25:00昨天才一只机器人爆打中国人QQ
作者:
nolag (达文喵)
2016-11-20 10:25:00机器人不能伤害人类,那能不能开刀或抓犯人QAQ?
作者:
SuperUp (( ̄▽ ̄#)﹏﹏)
2016-11-20 10:30:00失智老人 还是轮椅才本体?一下外星人毁灭人类一下AI 肖A
作者:
iqeqicq (南无警察大菩萨)
2016-11-20 10:33:00机器人还是无法忤逆上帝的
作者:
SiFox (疝气の噜噜米)
2016-11-20 10:35:00昨天新闻中国机器人打爆中国人,是对人类最后的警告
作者: deadogy (aya) 2016-11-20 10:36:00
现在的霍金给人的感觉就跟机器人没什么两样
作者:
potionx (YEN YUAN-YEN)
2016-11-20 10:39:00过7
作者: zhangyubin17 2016-11-20 10:46:00
查皮0.0
作者: MacOSX10 2016-11-20 10:48:00
AI不是他专业 所以他也只能做跟科幻小说家差不多的事手冢以前就画过类似的题材了 应该还有很多更早的
作者:
Km60369 (Maria)
2016-11-20 10:50:00有办法控制不至于失控 跟有可能失控没两样 只要是人在维护的机制 就有机会失灵失控 毕竟人本性很懒很蠢
作者: silentence (小飞号:号:) 2016-11-20 10:51:00
演算到最后就会绕过三大法则 直接消灭人类最省事不伤害人类 搞不好他觉得是在"清扫"东西而已
程式还是有不确定性吧?? 混沌效应不就是?初始值的微小差异就会造成后面结果的毁灭性改变你怎么确保你输入的初始值是刚好的呢??
作者: qaz12453 (路人) 2016-11-20 10:55:00
法则? 太自负了 机器人直接DELETE就好了
一般机器人和人类互动一订有各讯号输入接口 难保那个地方不会因此出现什么差错...0.00001 0.00002 就会造成毁灭性的误差了 我在想霍金担心的搞不好是这个
作者: xxx0226xxx (阿中) 2016-11-20 11:10:00
没硬件 软件再强也是没用
作者: exceedMyself (一整个无力) 2016-11-20 11:24:00
有异状 先拆电源
作者:
fakuko (法哭哭)
2016-11-20 11:30:00机器人干母猪
作者: THAO168 (一路发) 2016-11-20 11:35:00
推荐westworld,喜欢人工智能的一定要看
作者:
dnek (哪啊哪啊的合气道)
2016-11-20 11:42:00所以我说那个人工智能呢,比外星人攻打地球还不靠谱
作者: lin0129 (火哥) 2016-11-20 11:55:00
外星人攻击人类会比机器人攻击人类早很多。机器人有没有欲望,干嘛毁灭人类。