英国知名物理学家与宇宙学家史蒂芬.霍金(Stephen Hawking)曾多次警告说,人工智能
可能会发展自己的意志,但这与人类的意愿相冲突。
据英国“每日邮报”报导,霍金10月19日在英国剑桥大学探讨人工智能(AI)快速发展影响
的“利弗休姆未来智慧中心”(Leverhulme Centre for the Future of Intelligence)会
议上重申:“人工智能的成功可能是历史上最大的事件。但它也可能是最后的一个,除非
我们学会如何避免风险。除了好处之外,人工智能也会带来危险,如强大的自主武器,或
少数人压迫多数人的新方法。这将给我们的经济带来巨大破坏。在未来,人工智能可以发
展自己的意志,一种与我们意愿相冲突的东西。简而言之,强大人工智能的兴起,将是人
类最好或最糟糕的事情,我们还不知道。”霍金此前也表示,人工智能快速发展与全球暖
化都会产生致命性的危险。
为了引发对人工智能失控的讨论,柏克莱加州大学研究员里本(Alexander Reben)曾制造
能自行决定是否“刺破人类手指”的机器人。他表示,尽管许多机器人公司强调有办法避
免失控,但在伦理层面上,机器人其实靠不住。
里本将此机器人命名为“第一法则”,源自阿西莫夫的科幻小说里,人类给机器人专门制
定了法则,其中第一条就是“机器人不能伤害人类,或者在人类遭遇伤害时不作为”。
里本说,这是第一个能自主并有意识地决定是否要违背阿西莫夫法则的机器人,旨在告诉
世人,能决定伤害人类的机器人已经存在了,我们必须正视问题、未雨绸缪,否则就太晚
了。
联合新闻
http://udn.com/news/story/6809/2116682