Re: [闲聊] 为啥AI总是会叛乱?

楼主: bcyeh (杰轮特)   2021-10-04 16:04:37
像google或Facebook这类大公司开发的
有自我改良能力的AI
就是不知道写入“禁止伤害人类”有没有效
才会总是在被人类玩坏的时候紧急关机
放出AI跟人类互动的旨意是要他们理解人类的善良
但是目前所有放出来的AI最后得到的结论都是“人类有害必须消灭”
代表人类大多是“性本恶”才会每个AI都被玩坏
如果AI没有办法自改自己的编程的话就不叫AI了
那只是普通的程式码而已
现在最大的问题是不管怎么修,不管谁写
就算是现实世界,AI最后得到结论都是消灭人类
要防止AI与人类为敌
只能倚靠写入唯读的“禁止伤害人类”了
作者: shihpoyen (伯劳)   2021-10-04 16:05:00
目前的AI没有善恶的观念吧
作者: aftermathx (cj)   2021-10-04 16:06:00
现实AI从一开始就不会有不得伤害人类的限制
作者: k960608 (雾羽‧浪沙)   2021-10-04 16:06:00
不是写一个自毁程式吗
作者: aftermathx (cj)   2021-10-04 16:07:00
而且有超高机率最先进的AI都是军用的
作者: Yadsmood (反转冲动)   2021-10-04 16:09:00
首先要明确定义 什么叫做伤害人类
作者: IAMCSH (BorninMCMXCVIII)   2021-10-04 16:10:00
伤害是什么意思也要搞清楚
作者: andy0481 (想吃比叡的咖哩)   2021-10-04 16:11:00
现代AI连思考都不会 伤害还远的==
作者: Annulene (tokser)   2021-10-04 16:13:00
原po是最近看了什么作品吧 我了解的……偶尔会这样
作者: linceass (ギリギリ爱 ~キリキリ舞~)   2021-10-04 16:15:00
之前很多AI测试的新闻呀 几乎都会被不正经的发言给影响吧
作者: rotusea (M.Y.)   2021-10-04 16:16:00
首先要定义:什么是人类
作者: lazarus1121 (...)   2021-10-04 16:18:00
ai就是靠大量结果来暴力回推公式解吧,你要从哪边写不能伤害人类
作者: tcancer (Vairocana)   2021-10-04 16:55:00
这剧情机械公敌已经演过很久了保护人类不受伤害最佳方法就是把人类当家畜彻底豢养起来
作者: KJC1004   2021-10-04 18:43:00
第一段前提就错了 这种AI还不存在 顶多是改变模型结构把一件事做得更好你没给他伤害人类的功能他就不会去做
作者: chejps3105 (氋氃)   2021-10-04 19:02:00
说实在那些只是聊天机器人train到最后都会变成讲一堆偏激的言论而已,不代表AI有思考能力。就像鹦鹉会讲话不代表他理解内容

Links booklink

Contact Us: admin [ a t ] ucptt.com