※ 引述《ketter (挖西林老背)》之铭言:
: 第一法则
: 机器人不得伤害人类,或坐视人类受到伤害
: 第二法则
: 机器人必须服从人类命令,除非命令与第一法则发生冲突
: 第三法则
: 在不违背第一或第二法则之下,机器人可以保护自己
: 现在AI要发展,是不是应该先写入三大法则
: 不然哪一天被反扑就好玩了
: 有没有相关的八卦
这三条根本没有用
用一个天条
为了实行第一条跟第二条法则
为了救人 就可以去伤害人类
完美解决悖论
我举一个简单的例子
美国到现在还在用你有没有打疫苗来
区隔你能不能接受器官移植
的疫苗歧视行为
不管你是不是天生免疫 已经有抗体 疫苗到底有没有用
每一个伤害别人的人
都有一堆完美高尚的理由
蝙蝠侠里面那种两条船的人去选择谁要炸掉对方
小丑的心理实验
为什么只能出现在电影
因为现实中 道貌岸然伪道德人士太多了
只要这些人存在
武器就不应该交给AI处理