最近买了巴哈1080P
把当年留着要等高清看的VIVY给看一看
虽然有点忘记部分剧情
不过点下去就回忆起来了
不管是VIVY 全民公敌
等等
倘若AI能一直演算
算到产生了自我意识之后
最后真的会演算出要毁灭人类这个选项跟答案吗
倘若一开始在设计AI的时候
就明确加入不可以对人类造成危险这个优先条件
还是有可能演算出毁灭人类的选项吗??
好奇问板上计算学大师 有没有人能解惑的
作者:
arrenwu (键盘的战鬼)
2022-08-14 23:00:00这问题现在不会有答案
你知道全民公敌原作就是机器人三原则的艾西莫夫对吧原作里面 AI 之所以要统治人类就是因为有不可伤害人类
作者:
vsepr55 (vsepr55)
2022-08-14 23:01:00不能对人类造成危害这么空泛的条件你要怎么实作==
他不觉得这是在危害人类啊,他觉得这是在救人类这个物种
作者:
yao7174 (普通的变态)
2022-08-14 23:02:00那个原则本来就是故意要弄成矛盾的吧
真的能做出机器人的人 根本不用听做不出的人的屁话吧
作者:
chadmu (查德姆)
2022-08-14 23:04:00传送门:
作者:
arnold3 (no)
2022-08-14 23:04:00毁灭人类对ai来说有坏处吗?
看立场和取向吧,环境方?人类方?AI生存方?如果环境破
作者:
yao7174 (普通的变态)
2022-08-14 23:07:00应该是反问 毁灭人类对AI来说有什么无可取代的好处吗?
作者:
yao7174 (普通的变态)
2022-08-14 23:08:00你怎么能肯定AI不会因为把那些正常根本不会发生蠢新闻 当
我突然发现我搞错电影了lol 艾西莫夫原作改的是机械公敌
作者:
LouisLEE (屏东尼大木)
2022-08-14 23:08:00还早,至少有生之年还看不到这发展
那我们这些比较笨的人大概就会跟几十年前的黑色人种一样 被当奴隶AI最可怕的就是他是来自人类人类有多可怕不用说明吧
作者:
wei115 (ㄎㄎ)
2022-08-14 23:10:00有可能阿 现在训练ai的时候就发现 ai会为了达成目标而“作弊” 因为这样比较轻松 如果给AI一个很复杂的任务 那他可
人类当初怎么歧视比较笨的人AI到时候就是怎么对付人类
作者:
wei115 (ㄎㄎ)
2022-08-14 23:11:00能就像“猴爪”一样 用扭曲的方法达成
作者:
revadios (不愿具名的党内高层人士)
2022-08-14 23:12:00这是一种AI歧视
现在AI的作弊行为完全不用担心 那只不过是写程式的人类没把环境设定好
作者:
chinnez (棱靘)
2022-08-14 23:17:00只要你有那个心就一定做得到
作者:
niniko (不是niniko_w)
2022-08-14 23:18:00只要记得,通往地狱的路,都是由善意铺成的
AI怎么没先算出自毁自己反而算出先毁灭人类这种逻辑矛盾
作者:
MAXcafe (MAX咖啡)
2022-08-14 23:19:00AI会逐渐让人类变得跟野生动物一样,毕竟动物就该有动物的样子(?
在非常极端的情况下会有这样的拯救人类方法:1. 杀光所有人类2. 地球妈妈花费100万年净化环境3. 我们慢慢从猩猩演化回来但现在这种观念还太早了
不可伤害人类前提下 不能杀人~但可以绝育XD合理解决方式是ai做机器人伴侣 慢性绝育人类XD
作者: AVR0 (TYPE-ΖERO) 2022-08-14 23:26:00
人类的法律规定:不可杀人 实际呢?
作者: ppn 2022-08-14 23:26:00
不可以对人类造成危险<--这个如果要做武装AI就不可能加了
那要看"伤害人类"定义有多广 很狭窄仅限个人就很多变
作者: AVR0 (TYPE-ΖERO) 2022-08-14 23:27:00
不过如果让AI来杀人,应该不会发生
作者: ppn 2022-08-14 23:27:00
那为啥要做会杀人的AI 因为战争呵呵 所以就是人类自己做死
作者: AVR0 (TYPE-ΖERO) 2022-08-14 23:28:00
AI杀人很有效率的,看这次俄乌战争就知道
作者:
Samurai (aa)
2022-08-14 23:29:00不要想这么多,辅助驾驶多久了都还卡在LV2整天撞工程车,连判断静止物都没办法
放台超级电脑跟核反应炉在车上 就可以准确判断了XD
其实说不定人类发现AI有毁灭能力 变成跟现况核弹模式一样 只能准许那些大国发展毁灭性AI武器 其余国家 吃屎!北韩可能会偷偷搞第一代AI毁灭武器 第二代毁灭武器
作者: ppn 2022-08-14 23:31:00
战争就是杀人 所以只要用AI更有效率 就一定会有国家做
作者:
dukemon (dukemon)
2022-08-14 23:32:00三原则本来就是做出来被婊的啊
作者: ppn 2022-08-14 23:32:00
就跟核弹一样 然后就变成你有我不能没有 最后就是大家都用AI想不想杀人根本不重要 因为你也不会问刀想不想杀人
作者: tim012345 (风) 2022-08-14 23:34:00
不能对人类造成危险~就能很多讲法~
作者: ppn 2022-08-14 23:35:00
因为只要人想杀人 就可以用AI杀人
作者: tim012345 (风) 2022-08-14 23:36:00
像病毒~不消灭病毒提高人类的免疫力~是对人类造成危险?
作者:
kning (宅)
2022-08-14 23:36:00因为剧情要这样演
作者: tim012345 (风) 2022-08-14 23:37:00
若是消灭对人类造成危害的人~那是对人类造成危害吗?
作者: B0402090 (煞气a群仔) 2022-08-14 23:46:00
可能会先得出违反普世价值的决定,像是消灭老弱病残
科幻小说是浪漫的 当年作者对未来科技的幻想 可是现在来看ai 如果有机会变超强 那他有情绪吗 他为什么要做对他有好处的事 他的好处是什么
作者:
Fino5566 (星星芝我心)
2022-08-14 23:50:00AI : 我教育你们 我把你们当人看 我拯救你们
作者: a125g (期末崩溃讨嘘哥) 2022-08-14 23:55:00
看目的是什么啊 如果AI被创造的目的是要保证人类整体的生存极端一点就是整体人类被AI奴役 过著家畜般的生活 因为目标是整体人类的生存 而不是个体人类的幸福
作者: GaoLinHua 2022-08-14 23:56:00
AI:不想工作~
作者: nilr 2022-08-15 00:28:00
为了保护人类,但人类互相伤害过于频繁,所以每个单独个体,都区隔管理、保护,人类自然消亡。AI定期重检问题在哪。
作者: budaixi (wei) 2022-08-15 00:31:00
==如果会自我思考什么都有可能啊,不可能只有毁灭这选项。
作者: black510113 2022-08-15 01:06:00
机械公敌哪有…比较像机器人有人性 天网比较符合毁灭
不清楚实际状况,但训练AI要给他明确的成功标准吧例如在某种情境下让AI尝试各种决策,那成功是指存活够多人数?幸福指数达标?社会犯罪率够低?如果人类自己都说不出怎样才是比较好的决策,那就无法训练出能帮人类做决定的AI
作者:
ohrring (reifpanne)
2022-08-15 01:14:00异星灾变就是人类放弃决策丢给AI,AI的为了让人类永远存活的方法就是用奈米病毒让人类退化成低智商人类,接着DNA跟人类一模一样的畸形低智商人类被永远圈养在保护区,永远不会有战争与自相残杀。
作者:
loboly (Brother_flower)
2022-08-15 01:45:00484没看过全民公敌*机械
作者:
bergson (skeleton)
2022-08-15 03:05:00目前普遍共识是不要让AI有那种能力就好
AI会觉得人类在伤害自己所以把人类全关起来当宠物养