Re: [新闻] 机器人首胜电玩高手 马斯克:比北韩危险

楼主: angellll (長尾巴的天使)   2017-08-14 23:22:44
※ 引述《chenwii (wii)》之铭言:
: 1.媒体来源:
: 大纪元
: 2.完整新闻标题:
: 机器人首胜电玩高手 马斯克:比北韩危险
: 3.完整新闻内文:
AI 铁定比北韩危险 这应该完全不用否定
人工智能三法则 在1942年 由Asimov 的小说定下了三法则
1. AI 不能伤害人类 不能让其他人类来伤害
2. AI 要完全遵守人类订下的规定 除非那个规定会违反第一条法则
3. 在不违反第一条守则 第二条守则的情况下 AI要尽力保护自己的安全
后来Asimov 发现 1 2 3 法则有漏洞
自己加了 第0 条法则
0. AI不可以伤害所有人类 也不能让其他人类做这件事情
可是这些规则还是一大堆漏洞
比如 第零条的规则 定义的全体人类是用 Humanity
那 Humanity是谁定义的
对于一个智商对比人类几乎是无限人工智能
有太多不可预测的事情
AI 能不能违反 三大守则 目前在计算理论界
还是 non solvable questions
一个简单的举例就是
一个会自我演伸的字串需不需要回到母字串重新开始呢
答案是 不用
他可以产生无数的循环 在他自己的子程序中轮回
虽然有母字串的执行绪得存在 但是在几乎无限的序列中
母字串被执行得机率可以被有效的降低成0
也就是你设定了三规则 人工智能永远可以找到一个方法
绕过他 跑他自己的程序
作者: dklash (刘翰肥宅‧油腻boy)   2017-08-14 23:24:00
我看你不懂作业系统
作者: wyvernlee (wyvernlee)   2017-08-14 23:24:00
米军发展的所有机器人,都没有这三条,这三条是骗人的
作者: lisb5300 (救星无聊救星)   2017-08-14 23:40:00
就是如何界定人了机器人跟人 只差感情 但是如果出现了感情 那机器人跟人是不是就一样了
作者: grimdance (Mr.m1st3R)   2017-08-14 23:50:00
那三个规则只是小说设定 现实根本没在理这个
作者: kingstongyu ( ?????)   2017-08-14 23:51:00
电脑永远不会思考,她只会照着城市设计师给他的逻辑或打错"程式" ,或指令忠诚的执行,最多做到"类思考"

Links booklink

Contact Us: admin [ a t ] ucptt.com