[闲聊] Vivy AI没设计安全机制是不是大错?

楼主: sado5566 (5566)   2021-07-16 22:43:19
譬如机械公敌里用到的机器人三大法则
一、机器人不能伤害人类
二、不违反原则一,听从人类命令
三、不违反原则一二,保护自己
在这原则下除了最后爆发人类与AI冲突
中间很多事件应该都能避免
譬如巨浮岛那些AI应该能避免攻击人
又或是像来自新世界的愧死机制
让攻击人类致死的AI自己发动停止程序
一定程度能缓和AI的攻击性
当然AI数量暴增多于人类很多倍还是能灭世
又或是刀剑underworld里面禁忌目录
正常人都无法突破限制做出不该的行动
觉得AI这种一板一眼电子存在
怎么会没有设计一个基本安全机制呢?
vivy里面就很单纯靠单一使命
所以很多使命都是让人类怎样怎样
用歌声让人类幸福
当护理师让人类生存
弹钢琴帮助人类
营运巨浮岛帮助人类
从第一集就觉得这种靠一句话使命的机制超多漏洞可钻的
如果vivy开第二季
人类会怎样设计改良AI安全机制?
作者: TeamFrotress (Heavy is Dead)   2021-07-16 22:45:00
在它们的脚底安装自爆按钮
作者: Sirctal (母猪母猪 夜里哭哭)   2021-07-16 22:55:00
你知道那三大原则就是拿来打破的吗?科幻小说会写主要是想突显AI带有人性会自行衍生或解释来强调他们是跟人同样的一个创造物
作者: junior1006 (一切都是阴谋 好吗?)   2021-07-16 22:57:00
三大原则是为了打破用的更不要说vivy里面姊妹系列本来就是刻意放宽界线的
作者: msbdhdfceb (ゾン)   2021-07-16 22:59:00
三大法则就是拿来打破的 还直接生出万用第零法则
作者: a125g (期末崩溃讨嘘哥)   2021-07-16 23:28:00
vivy有致敬机器人系列 像是那个电子脑无法复制
作者: Amulet1 (AmuletHeart)   2021-07-16 23:46:00
其实是有点自降格调,这些设定套在vivy世界观的话
作者: jiko5566 (云落炩)   2021-07-17 00:29:00
不能伤害人类这点,就会有其他事件出现主角无法反击部分人类失控AI却能钻漏洞让人类死亡
作者: coolctm (展翼!挑战确定的未来!)   2021-07-17 02:11:00
就是拿来打破的,所以欧菲利雅自杀事件才被视为奇点之一,这100年的过程其实就是在说AI越来越趋近于人类
作者: hirokofan (笠原弘子 命!)   2021-07-17 07:57:00
有安全机制也没用啦,最后archive直接操控AI暴动那个时候哪只AI还有在顾使命了?全部变成杀人机器啦

Links booklink

Contact Us: admin [ a t ] ucptt.com