楼主:
bcyeh (杰轮特)
2021-10-04 16:04:37像google或Facebook这类大公司开发的
有自我改良能力的AI
就是不知道写入“禁止伤害人类”有没有效
才会总是在被人类玩坏的时候紧急关机
放出AI跟人类互动的旨意是要他们理解人类的善良
但是目前所有放出来的AI最后得到的结论都是“人类有害必须消灭”
代表人类大多是“性本恶”才会每个AI都被玩坏
如果AI没有办法自改自己的编程的话就不叫AI了
那只是普通的程式码而已
现在最大的问题是不管怎么修,不管谁写
就算是现实世界,AI最后得到结论都是消灭人类
要防止AI与人类为敌
只能倚靠写入唯读的“禁止伤害人类”了
作者:
k960608 (雾羽‧浪沙)
2021-10-04 16:06:00不是写一个自毁程式吗
作者:
IAMCSH (BorninMCMXCVIII)
2021-10-04 16:10:00伤害是什么意思也要搞清楚
作者:
andy0481 (想吃比叡的咖哩)
2021-10-04 16:11:00现代AI连思考都不会 伤害还远的==
作者:
Annulene (tokser)
2021-10-04 16:13:00原po是最近看了什么作品吧 我了解的……偶尔会这样
作者:
linceass (ギリギリ爱 ~キリキリ舞~)
2021-10-04 16:15:00之前很多AI测试的新闻呀 几乎都会被不正经的发言给影响吧
作者:
rotusea (M.Y.)
2021-10-04 16:16:00首先要定义:什么是人类
ai就是靠大量结果来暴力回推公式解吧,你要从哪边写不能伤害人类
作者:
tcancer (Vairocana)
2021-10-04 16:55:00这剧情机械公敌已经演过很久了保护人类不受伤害最佳方法就是把人类当家畜彻底豢养起来
作者: KJC1004 2021-10-04 18:43:00
第一段前提就错了 这种AI还不存在 顶多是改变模型结构把一件事做得更好你没给他伤害人类的功能他就不会去做
说实在那些只是聊天机器人train到最后都会变成讲一堆偏激的言论而已,不代表AI有思考能力。就像鹦鹉会讲话不代表他理解内容