※ 引述《teddy98 (小迪)》之铭言:
: 英国知名物理学家与宇宙学家史蒂芬.霍金(Stephen Hawking)曾多次警告说,人工智能
: 可能会发展自己的意志,但这与人类的意愿相冲突。
: 据英国“每日邮报”报导,霍金10月19日在英国剑桥大学探讨人工智能(AI)快速发展影响
: 的“利弗休姆未来智慧中心”(Leverhulme Centre for the Future of Intelligence)会
: 议上重申:“人工智能的成功可能是历史上最大的事件。但它也可能是最后的一个,除非
: 我们学会如何避免风险。除了好处之外,人工智能也会带来危险,如强大的自主武器,或
: 少数人压迫多数人的新方法。这将给我们的经济带来巨大破坏。在未来,人工智能可以发
: 展自己的意志,一种与我们意愿相冲突的东西。简而言之,强大人工智能的兴起,将是人
: 类最好或最糟糕的事情,我们还不知道。”霍金此前也表示,人工智能快速发展与全球暖
: 化都会产生致命性的危险。
: 为了引发对人工智能失控的讨论,柏克莱加州大学研究员里本(Alexander Reben)曾制造
: 能自行决定是否“刺破人类手指”的机器人。他表示,尽管许多机器人公司强调有办法避
: 免失控,但在伦理层面上,机器人其实靠不住。
: 里本将此机器人命名为“第一法则”,源自阿西莫夫的科幻小说里,人类给机器人专门制
: 定了法则,其中第一条就是“机器人不能伤害人类,或者在人类遭遇伤害时不作为”。
: 里本说,这是第一个能自主并有意识地决定是否要违背阿西莫夫法则的机器人,旨在告诉
: 世人,能决定伤害人类的机器人已经存在了,我们必须正视问题、未雨绸缪,否则就太晚
: 了。
: 联合新闻
: http://udn.com/news/story/6809/2116682
混沌效应讲的是输入初始直的微小差异会造成后端结果的毁灭性改变
一般来讲 机器人要和人类互动一定要透过一个所谓的人机接口
而这个人机接口可能是收音器 萤幕 或是热感应器之类
就算机器人被程式设计师coding而且debug过好几次
但是你怎么知道尔后越来越复杂 可以模拟人类心智的复杂机器人
会不会因此出现混沌效应? 而人类又能去预防呢?
一点点误差
ex:初始输入讯号小数点后面6位数的误差 都可能会造成混沌效应(蝴蝶效应)
这个混沌效应在高等机器人身上去体现出来会变成什么样子?
没有人知道
这可能是霍金背后在担心的
coding 就很像 物理学的governing equation,
但能完美描述系统交互作用力的系统还是会有混沌效应的产生
这在本质上是避免不了也消除不掉的