Re: [问卦] 要发明什么东西,人类文明才能大跃进

楼主: GermanNavy (刚射了三发在金刚肚子里)   2016-11-02 10:49:07
※ 引述《aalluubbaa (wenwenyenyen)》之铭言:
: 可是感觉大家没有把这件事情认真看待,我是觉得蛮奇怪的,全世界最聪明的几个人都
: ㄘㄨㄚˋ著等,大家还只管一些剩下其他芝麻蒜皮的小事,当初不限制核武最后大家才
: 知道造出那么可怕的武器,核武你做出来比不发射就部会死人,超级AI一旦出现了,你
: 根本不可能把它杀掉...
: 希望有生之年出现的是神,不是失控的AI
不知道为什么这几年机器人三原则不流行了?
当初提出这个东西不是就是避免AI能自我思考以后伤害人类?
https://zh.m.wikipedia.org/zh-tw/%E6%9C%BA%E5%99%A8%E4%BA%BA%E4%B8%89%E5%AE%9A
%E5%BE%8B
机器人三原则:
1. 机器人不得伤害人类,或是坐视人类受到伤害
2. 不违背第一条下,服从人类命令
3.不违反第一与第二条下,保护自身的安全
在人类来说,也会想要保护社群所以作战
想要保护后代不惜以自己身体去承受伤害
常会将这两个目地放在维护自身性命之前
AI如果能把三原则想人类那样当成潜意识的生存目标
应该可以大幅降低叛乱危险
如果能将机器人三原则写死,或是强制建立在硬件构造上
应该能得到不会伤害人类的AI
还是说这个方法在目前AI的软件面上不可行?
有没有八卦?
作者: confri427 (辅导)   2016-11-02 10:50:00
如果他真的超越人智,想出第四条也不是不可能
作者: ljxc (圣‧肥宅)   2016-11-02 10:50:00
4.以上都当放屁
作者: badwang0427 (APOC)   2016-11-02 10:50:00
R200000000000
作者: widec (☑30cm)   2016-11-02 10:51:00
三大法则是写在小说扉页你知道小说的内容是在写如何规避破坏三大法则吗比如说母体对人体所做的就很符合三大法则了
作者: gino0717 (gino0717)   2016-11-02 10:53:00
繁星若尘超难看der
作者: widec (☑30cm)   2016-11-02 10:54:00
繁星若尘不是机器人系列 是艾西莫夫更早期的银河系列了
作者: crazy126 (slive)   2016-11-02 10:56:00
作者写这三大法则后每本书都在描述bug啊....
作者: Zeroyeu (凌羽)   2016-11-02 11:16:00
机械公敌有演都没看吗? 只要人类完全服从机器并受控制
作者: AboveTheRim (尚未通过身分认证 )   2016-11-02 11:22:00
不伤害人类这条就有很大的讨论空间。什么叫不伤害人类? 是纯粹肉体上的伤害吗? 先不讨论精神上的伤害,光是麦可桑德尔的火车选择题要AI来选,它会做出怎样的选择? 基于什么样的理由? 如果牺牲部分人类增进大部分人类的福祉是可被允许的,那就牵扯到道德价值的判断。道德价值每个文化民族都有差异,机器人要怎么分别处理?如果是“为你好”式的AI但是某部分人类不接受却要被强制执行怎么办? 例如骇客任务,有的人就是不想只活在母体

Links booklink

Contact Us: admin [ a t ] ucptt.com