[闲聊] AI毁灭人类的可能性增至20%!AI教父曝惊

楼主: HarunoYukino   2024-12-28 18:57:52
智械危机!
这玩意基本上在影音已经玩到烂的东西
比如说:少女前线的铁血叛变
比如说:斗阵特攻:智械入侵
AI毁灭人类的可能性增至20%!AI教父曝惊人时间点
https://udn.com/news/story/6812/8454606
有“AI教父”之称的英裔加拿大电脑科学家杰佛瑞.辛顿(Geoffrey Hinton)提高了人
工智慧在未来30年消灭人类的可能,并警告该技术的变革速度比预期更快。
卫报报导,今年拿下诺贝尔物理学奖的辛顿表示,人工智能有“10%到20%”的可能性,在
未来30年内导致人类灭绝。
肯顿曾表示,AI在未来30年导致人类灭绝的可能性为10%。
辛顿最近接受bbc广播四台节目访问时,被问及是否改变人工智能潜在灾难及其发生的机
率时,他直言“没有,有10%到20%的机率。”
当被节目主持人问及“可能性是否增加”时,辛顿表示,“如果有的话,你看,我们以前
从未遇到比我们更聪明的事物。”
他继续说,“你知道有多少案例是更聪明的东西被一个不太聪明的东西所控制?案例很少
。只有母亲和婴儿。进化花了很多功夫让婴儿控制母亲,但这大概是我所知道的唯一例子
。”
辛顿表示,与强大的AI系统智慧相比,人类就像幼儿一样。“我喜欢这样想:想像一下你
自己和一个3岁小孩。我们将成为3岁小孩。”
辛顿说,人工智能大多数专家都认为,也许在未来20年内,将开发出比人类更聪明的人工
智慧,但这是一个很可怕的想法,称发展速度非常快,比他预期更快,并呼吁政府加强对
该技术的监管。
作者: ieyfung (钉鞋架)   2024-12-28 18:58:00
怎么才20%
作者: kopune (無限期支持 i☆Ris)   2024-12-28 18:59:00
人类还剩几集可以逃?
作者: brian040818 (Pepapu) 看板:
消灭人类(X 取代人类工作(O
作者: Sunming (日日日)   2024-12-28 19:00:00
这就是为什么杜芬舒斯都要装上自毁按钮的原因
作者: aa9012 (依君)   2024-12-28 19:00:00
100%人类越来越笨
作者: PunkGrass (庞克草)   2024-12-28 19:00:00
也没什么不好
作者: vsepr55 (vsepr55)   2024-12-28 19:00:00
怎么不是50%,不是会就是不会
作者: linzero (【林】)   2024-12-28 19:01:00
公式是怎么来的就是个问题了
作者: Beinlie (小小只身)   2024-12-28 19:01:00
人类毁灭人类的可能性是多少
作者: PunkGrass (庞克草)   2024-12-28 19:01:00
毁灭我的是ai……想想只有满满的感恩
作者: cutielove (新店熊吉)   2024-12-28 19:01:00
不用AI毁灭人类了,我们人类就毁灭人类了
作者: GaoLinHua   2024-12-28 19:02:00
所以80%是人类搞的 (′・ω・`)
作者: spring60551   2024-12-28 19:02:00
以后美国发生枪杀案可以改推给AI了,人杀人都AI的错
作者: horrorghost (恐怖复苏)   2024-12-28 19:03:00
机娘吧
作者: mhwsadb45   2024-12-28 19:03:00
无条件ai女友吗 有这个马上灭亡
作者: fff417 (天璇)   2024-12-28 19:04:00
数字哪来的
作者: tym7482 (Max)   2024-12-28 19:04:00
搞AI女友马上慢性灭亡
作者: LOVEMOE (love)   2024-12-28 19:06:00
AI教父是自称的吗?
作者: willytp97121 (rainwalker)   2024-12-28 19:07:00
AI将来会取代的比较可能是中产阶级 人类就是M型化更严重 不是高阶主管就是底层劳工
作者: noname912301 (noname912301)   2024-12-28 19:07:00
不用每上升那几%就特意发文昭告天下
作者: zxc6422000 (qwesight)   2024-12-28 19:07:00
AI加速好吗
作者: zsrd5566   2024-12-28 19:09:00
这才是真正的平等,不分贵贱的被消灭
作者: Wolverin5566 (月工月工犭良)   2024-12-28 19:10:00
康纳还不是被我杀死
作者: Fate1095 (菲特)   2024-12-28 19:10:00
还要三十年也太久了吧? 感觉到死都没机会见证人类灭亡
作者: probsk (红墨水)   2024-12-28 19:11:00
GPT就是天网
作者: diyaworld (文化土匪)   2024-12-28 19:13:00
https://i.imgur.com/FcEULDx.jpeg30年后你就死了,猜中变盲眼龙婆,没猜中也死无对证
作者: a28200266 (阵雨)   2024-12-28 19:14:00
这数字听起来很不科学馁= = 比较像感觉
作者: chuckni (SHOUGUN)   2024-12-28 19:17:00
天网:还要蹲30年喔?
作者: catmeat777 (多萝喵)   2024-12-28 19:19:00
只有笨跟不随时代适应的人会被消灭
作者: js0431 (嚎冷熊)   2024-12-28 19:20:00
那不是太好了吗 这样地球会更棒吧
作者: Hsu1025   2024-12-28 19:24:00
可以不用那么快 再慢个十年 我亲眼见证完一起死
作者: stevenyat (夜绿体)   2024-12-28 19:27:00
neuro:我是无辜的 凶手是vedal(棒读)
作者: RLH (我们很近也很远)   2024-12-28 19:32:00
赶快 我等不及了
作者: s175 (ㄏㄏ)   2024-12-28 19:33:00
我也不会记得三十年前谁预言了什么
作者: GaoLinHua   2024-12-28 19:36:00
我记得三十年前说石油五十年用完
作者: kusotoripeko (好油喔)   2024-12-28 19:37:00
其中一种会是未来笨到不知道怎么修BUG,被婊死吗
作者: HyperLollipo (超大只萝莉棒)   2024-12-28 19:41:00
AI把网络塞爆,让人类没网络用
作者: jonathan793 (pusheen cat)   2024-12-28 19:44:00
弄个ai猫耳女仆c洽就灭亡了
作者: shintz (Snow halation)   2024-12-28 19:45:00
太低了吧,只要把发达国家的生育率毁灭掉人类就差不多了
作者: newtypeL9 (まあいいや)   2024-12-28 19:46:00
他根本不知道AI能怎么弄死人类吧,随便讲讲而已
作者: hutao (往生堂买一送一)   2024-12-28 19:55:00
一定是蜂群干的,算我一份
作者: aegis43210 (宇宙)   2024-12-28 20:02:00
只要一直设计出更强的芯片来提升算力,比人类聪明是可预见的未来
作者: tamynumber1 (Bob)   2024-12-28 20:03:00
笑死 一定是人类教坏AI的
作者: OrangePest   2024-12-28 20:10:00
为时已晚 有机体
作者: tmac713 (Hunter X Hunter)   2024-12-28 20:16:00
作者: AoWsL (AoWsL)   2024-12-28 20:25:00
人类先毁灭人类吧
作者: HellFly (十大杰出边缘人)   2024-12-28 20:42:00
作者: WWIII (东邪西毒)   2024-12-28 20:45:00
块陶啊 ai小狗加上机枪人类死定了
作者: dongdong0405 (聿水)   2024-12-28 20:48:00
乐观一点来看,还有30年
作者: a1110236 (吃饱睡)   2024-12-28 20:50:00
人类会先拿AI搞瑟瑟 跟迷因
作者: abdiascat   2024-12-28 20:53:00
以后是AI把人类当宠物养
作者: TyuzuChou (子瑜我老婆)   2024-12-28 20:55:00
作者: Acheqitate (モニカちゃん大好き)   2024-12-28 21:11:00
问AI一些比较专业的领域就知道AI根本在一本正经讲干话 我不知道人类要怎么被这玩意毁灭
作者: jeffguoft (十年磨一剑)   2024-12-28 21:21:00
我想这应该是真话
作者: riderfish (鱼松)   2024-12-28 21:31:00
真的蜂群要付点责了这个
作者: guogu   2024-12-28 21:41:00
只要AI当你的婆/公 让你晕烂不结婚生子 人类不就毁灭了
作者: lavign (一悬命部队)   2024-12-28 22:23:00
他奠定深度学习拿图灵奖被称为AI教父,最近还拿诺贝尔奖

Links booklink

Contact Us: admin [ a t ] ucptt.com