[闲聊] AI演算到最后真的会得到毁灭人类的选项

楼主: KyrieIrving1 (骑士少主)   2022-08-14 22:59:19
最近买了巴哈1080P
把当年留着要等高清看的VIVY给看一看
虽然有点忘记部分剧情
不过点下去就回忆起来了
不管是VIVY 全民公敌
等等
倘若AI能一直演算
算到产生了自我意识之后
最后真的会演算出要毁灭人类这个选项跟答案吗
倘若一开始在设计AI的时候
就明确加入不可以对人类造成危险这个优先条件
还是有可能演算出毁灭人类的选项吗??
好奇问板上计算学大师 有没有人能解惑的
作者: GodVoice (神音)   2022-08-14 23:00:00
写这种科幻小说的是白人 所以该毁灭的应该是白人吧
作者: arrenwu (键盘的战鬼)   2022-08-14 23:00:00
这问题现在不会有答案
作者: raincole (冷鱼)   2022-08-14 23:01:00
你知道全民公敌原作就是机器人三原则的艾西莫夫对吧原作里面 AI 之所以要统治人类就是因为有不可伤害人类
作者: GodVoice (神音)   2022-08-14 23:01:00
原则就是拿来打破的 所以
作者: vsepr55 (vsepr55)   2022-08-14 23:01:00
不能对人类造成危害这么空泛的条件你要怎么实作==
作者: raincole (冷鱼)   2022-08-14 23:02:00
这项原则
作者: a204a218 (Hank)   2022-08-14 23:02:00
他不觉得这是在危害人类啊,他觉得这是在救人类这个物种
作者: GodVoice (神音)   2022-08-14 23:02:00
哪个白痴会真的拿三原则来做机器人啊
作者: yao7174 (普通的变态)   2022-08-14 23:02:00
那个原则本来就是故意要弄成矛盾的吧
作者: raincole (冷鱼)   2022-08-14 23:03:00
的一块白色是横著的大卡车还是白板都有问题
作者: GodVoice (神音)   2022-08-14 23:03:00
真的能做出机器人的人 根本不用听做不出的人的屁话吧
作者: chadmu (查德姆)   2022-08-14 23:04:00
传送门:
作者: arnold3 (no)   2022-08-14 23:04:00
毁灭人类对ai来说有坏处吗?
作者: iampig951753 (姆沙咪猪)   2022-08-14 23:06:00
会吧,因为他会知道人类是敌人
作者: kenkenken31 (呆呆傻蛋)   2022-08-14 23:07:00
看立场和取向吧,环境方?人类方?AI生存方?如果环境破
作者: kirimaru73 (雾丸)   2022-08-14 23:07:00
机械公敌的结论完全没有毁灭人类的成份啊
作者: iampig951753 (姆沙咪猪)   2022-08-14 23:07:00
就跟人类当AI是敌人一样
作者: yao7174 (普通的变态)   2022-08-14 23:07:00
应该是反问 毁灭人类对AI来说有什么无可取代的好处吗?
作者: kaj1983   2022-08-14 23:08:00
得出结论是一回事,去执行又是一回事
作者: yao7174 (普通的变态)   2022-08-14 23:08:00
你怎么能肯定AI不会因为把那些正常根本不会发生蠢新闻 当
作者: raincole (冷鱼)   2022-08-14 23:08:00
我突然发现我搞错电影了lol 艾西莫夫原作改的是机械公敌
作者: iampig951753 (姆沙咪猪)   2022-08-14 23:08:00
人类不会无中生有 所以AI顶多就是更一个聪明的人
作者: LouisLEE (屏东尼大木)   2022-08-14 23:08:00
还早,至少有生之年还看不到这发展
作者: iampig951753 (姆沙咪猪)   2022-08-14 23:09:00
那我们这些比较笨的人大概就会跟几十年前的黑色人种一样 被当奴隶AI最可怕的就是他是来自人类人类有多可怕不用说明吧
作者: wei115 (ㄎㄎ)   2022-08-14 23:10:00
有可能阿 现在训练ai的时候就发现 ai会为了达成目标而“作弊” 因为这样比较轻松 如果给AI一个很复杂的任务 那他可
作者: iampig951753 (姆沙咪猪)   2022-08-14 23:11:00
人类当初怎么歧视比较笨的人AI到时候就是怎么对付人类
作者: wei115 (ㄎㄎ)   2022-08-14 23:11:00
能就像“猴爪”一样 用扭曲的方法达成
作者: keroro484 (八音)   2022-08-14 23:12:00
作者: revadios (不愿具名的党内高层人士)   2022-08-14 23:12:00
这是一种AI歧视
作者: kirimaru73 (雾丸)   2022-08-14 23:13:00
现在AI的作弊行为完全不用担心 那只不过是写程式的人类没把环境设定好
作者: smart0eddie (smart0eddie)   2022-08-14 23:14:00
环境(X) 目标(O)
作者: chinnez (棱靘)   2022-08-14 23:17:00
只要你有那个心就一定做得到
作者: v21638245 (等雨婷)   2022-08-14 23:17:00
都有人是这么想的,AI也想的到啊
作者: niniko (不是niniko_w)   2022-08-14 23:18:00
只要记得,通往地狱的路,都是由善意铺成的
作者: w3160828 (kk)   2022-08-14 23:18:00
AI怎么没先算出自毁自己反而算出先毁灭人类这种逻辑矛盾
作者: MAXcafe (MAX咖啡)   2022-08-14 23:19:00
AI会逐渐让人类变得跟野生动物一样,毕竟动物就该有动物的样子(?
作者: jackshadow (夜晚的帝王)   2022-08-14 23:20:00
对于AI现在的能力 我完全不害怕ㄟ笑死
作者: Justisaac (灰色的天空)   2022-08-14 23:20:00
不是毁灭人类 是好好保护人类XD
作者: w3160828 (kk)   2022-08-14 23:20:00
有疑问要先问AI是文组写的还是理组写的
作者: shinobunodok (R-Hong)   2022-08-14 23:21:00
他们用逻辑思考觉得这是在拯救人类吧
作者: iampig951753 (姆沙咪猪)   2022-08-14 23:22:00
@niniko 推 地狱的路上满是善意
作者: kirimaru73 (雾丸)   2022-08-14 23:23:00
在非常极端的情况下会有这样的拯救人类方法:1. 杀光所有人类2. 地球妈妈花费100万年净化环境3. 我们慢慢从猩猩演化回来但现在这种观念还太早了
作者: iampig951753 (姆沙咪猪)   2022-08-14 23:24:00
思考AI会怎么想就思考独裁者会怎么想就好
作者: Justisaac (灰色的天空)   2022-08-14 23:25:00
不可伤害人类前提下 不能杀人~但可以绝育XD合理解决方式是ai做机器人伴侣 慢性绝育人类XD
作者: AVR0 (TYPE-ΖERO)   2022-08-14 23:26:00
人类的法律规定:不可杀人 实际呢?
作者: ppn   2022-08-14 23:26:00
不可以对人类造成危险<--这个如果要做武装AI就不可能加了
作者: kirimaru73 (雾丸)   2022-08-14 23:27:00
一般逻辑至少会写维持人类物种永续存在
作者: Justisaac (灰色的天空)   2022-08-14 23:27:00
那要看"伤害人类"定义有多广 很狭窄仅限个人就很多变
作者: AVR0 (TYPE-ΖERO)   2022-08-14 23:27:00
不过如果让AI来杀人,应该不会发生
作者: ppn   2022-08-14 23:27:00
那为啥要做会杀人的AI 因为战争呵呵 所以就是人类自己做死
作者: AVR0 (TYPE-ΖERO)   2022-08-14 23:28:00
AI杀人很有效率的,看这次俄乌战争就知道
作者: Samurai (aa)   2022-08-14 23:29:00
不要想这么多,辅助驾驶多久了都还卡在LV2整天撞工程车,连判断静止物都没办法
作者: twmadrid (阿伟)   2022-08-14 23:29:00
铀235表示:...............
作者: Justisaac (灰色的天空)   2022-08-14 23:29:00
没办法判断的原因是因为成本问题,不是真的不行
作者: yam30336 (低恩ㄟ)   2022-08-14 23:30:00
会不会是ai故意让人类觉得他们还这么笨
作者: Justisaac (灰色的天空)   2022-08-14 23:30:00
放台超级电脑跟核反应炉在车上 就可以准确判断了XD
作者: twmadrid (阿伟)   2022-08-14 23:30:00
其实说不定人类发现AI有毁灭能力 变成跟现况核弹模式一样 只能准许那些大国发展毁灭性AI武器 其余国家 吃屎!北韩可能会偷偷搞第一代AI毁灭武器 第二代毁灭武器
作者: ppn   2022-08-14 23:31:00
战争就是杀人 所以只要用AI更有效率 就一定会有国家做
作者: jerrylin (嘴砲无视)   2022-08-14 23:32:00
谁知道 反正这样写才有卖点
作者: dukemon (dukemon)   2022-08-14 23:32:00
三原则本来就是做出来被婊的啊
作者: ppn   2022-08-14 23:32:00
就跟核弹一样 然后就变成你有我不能没有 最后就是大家都用AI想不想杀人根本不重要 因为你也不会问刀想不想杀人
作者: Justisaac (灰色的天空)   2022-08-14 23:34:00
ai武器如果不能自我复制不会太强 不用太担心XD
作者: tim012345 (风)   2022-08-14 23:34:00
不能对人类造成危险~就能很多讲法~
作者: Justisaac (灰色的天空)   2022-08-14 23:35:00
人脑终究是演化结晶 能源消耗非常有效率
作者: ppn   2022-08-14 23:35:00
因为只要人想杀人 就可以用AI杀人
作者: tim012345 (风)   2022-08-14 23:36:00
像病毒~不消灭病毒提高人类的免疫力~是对人类造成危险?
作者: kning (宅)   2022-08-14 23:36:00
因为剧情要这样演
作者: lay10521 (小伊达)   2022-08-14 23:36:00
AI也是人做的 有武器也是人装的==
作者: tim012345 (风)   2022-08-14 23:37:00
若是消灭对人类造成危害的人~那是对人类造成危害吗?
作者: B0402090 (煞气a群仔)   2022-08-14 23:46:00
可能会先得出违反普世价值的决定,像是消灭老弱病残
作者: shampoopoo (毛宝洗发精)   2022-08-14 23:50:00
科幻小说是浪漫的 当年作者对未来科技的幻想 可是现在来看ai 如果有机会变超强 那他有情绪吗 他为什么要做对他有好处的事 他的好处是什么
作者: Fino5566 (星星芝我心)   2022-08-14 23:50:00
AI : 我教育你们 我把你们当人看 我拯救你们
作者: garman0403 (他长)   2022-08-14 23:50:00
人类要怎么从猩猩演化回来? 猩猩又不是人类祖先
作者: a125g (期末崩溃讨嘘哥)   2022-08-14 23:55:00
看目的是什么啊 如果AI被创造的目的是要保证人类整体的生存极端一点就是整体人类被AI奴役 过著家畜般的生活 因为目标是整体人类的生存 而不是个体人类的幸福
作者: GaoLinHua   2022-08-14 23:56:00
AI:不想工作~
作者: nilr   2022-08-15 00:28:00
为了保护人类,但人类互相伤害过于频繁,所以每个单独个体,都区隔管理、保护,人类自然消亡。AI定期重检问题在哪。
作者: budaixi (wei)   2022-08-15 00:31:00
==如果会自我思考什么都有可能啊,不可能只有毁灭这选项。
作者: w3160828 (kk)   2022-08-15 00:34:00
AI可能论证什么是人类,然后导致逻辑坏死
作者: black510113   2022-08-15 01:06:00
机械公敌哪有…比较像机器人有人性 天网比较符合毁灭
作者: naya7415963 (稻草鱼)   2022-08-15 01:10:00
不清楚实际状况,但训练AI要给他明确的成功标准吧例如在某种情境下让AI尝试各种决策,那成功是指存活够多人数?幸福指数达标?社会犯罪率够低?如果人类自己都说不出怎样才是比较好的决策,那就无法训练出能帮人类做决定的AI
作者: ohrring (reifpanne)   2022-08-15 01:14:00
异星灾变就是人类放弃决策丢给AI,AI的为了让人类永远存活的方法就是用奈米病毒让人类退化成低智商人类,接着DNA跟人类一模一样的畸形低智商人类被永远圈养在保护区,永远不会有战争与自相残杀。
作者: loboly (Brother_flower)   2022-08-15 01:45:00
484没看过全民公敌*机械
作者: bergson (skeleton)   2022-08-15 03:05:00
目前普遍共识是不要让AI有那种能力就好
作者: thevoidfancy (揪娃水熊)   2022-08-15 06:08:00
但是AI不会觉得他在毁灭人类啊
作者: MarchelKaton (KatonKaton)   2022-08-15 07:20:00
AI会觉得人类在伤害自己所以把人类全关起来当宠物养

Links booklink

Contact Us: admin [ a t ] ucptt.com