[心得] AI末日--第二冲击

楼主: VelvetMikoP (Velvet-35P)   2023-04-23 11:38:55
https://tinyurl.com/2ys5j6f8
YouTube影片,关于AI末日的讲座。
对于我这种不太关心科技发展的人,冲击性十足,所以简译一些重点出来分享。
  “有一半以上的AI科学家表示,有大于10%的机率AI会带来人类灭绝。”
  是这场演讲的开场白。
  你可能觉得这个数据还好嘛、危言耸听,可是假设我们换个方式说呢:
  “有一半以上的飞机工程师表示,你正要搭乘的班机有大于10%的机率会坠机。”
  你还敢搭吗?
  接着讲者提到,我们人类其实已经接触过“AI的第一冲击”而且已经败阵了。
  所谓的第一冲击指的是社群网站,一种“试图吸睛的AI(策展AI)”,也就是常
见的“猜你也喜欢…”或是YouTube以及推特的推荐算法。
  社群网站带来的文化问题我们耳熟能详,诸如:资讯爆炸、假新闻、用网成瘾、厄运
浏览(专门看各种坏消息导致身心健康低落)、专注力降低、意见极端化、小型邪教丛生
……等等。
  在这些问题都还没解决之前,AI又要升级成为创造性AI,带来第二次冲击。
  现在的“AI抢工作”、“AI的政治立场吊诡”都只是表面的问题,重点还是与第
一次冲击一样:“AI与生活各层面开始会交缠的太深”。
  
  接着讲者先跳到AI演进史,说明2017是AI科技的分水岭。在那之前,各产业AI
发展是各自独立的,举凡语音辨识、相机的图像辨识、音乐产出、机器人工学……等。不
同的AI有各自不同的进程,互不干涉。每个领域的专家会没办法转移他的专业。
  但是自从语言学习AI发展出来之后,所有AI就有办法大一统了。因为几乎所有的
知识都能语言化,图像有图像语言、声音有声纹语言、脑内造影语言(fMRI)、DNA的基
因讯息语言、程式语言……
  AI研究开始变得一法通、万法通,各类AI专家能够集中他们的智慧到语言AI上
,所以近期才会有各种AI同时问世、能有飞越式进展。
  然后讲者提供各领域的例子,解释现行AI有多强,像是翻译fMRI的大脑图像。详细
请看影片。
  再来讲者举例可能以及已有的问题,像是只靠录制三秒钟小孩讲话的声音就能靠AI制
作假的绑票语音或是请AI找程式漏洞……等等。
  
  此外,AI的进化具有不可预知性。  
  这里讲的是“一法通万法通”的延伸。案例是,明明只有喂英文资料给AI学习,结
果喂到一个阶段的时候,莫名其妙它的波斯语理解程度却飙高了。这是AI工程师们没预
期到的结果。
  另一个案例,这个语言AI在学习化学知识上比起旧有的化学专门AI还强,它甚至
能提供制造神经毒气的方法。而这件事是在GPT问世之后才被发掘的。
  AI的战略性心智程度:
  2018   :无
  2019   :些微(近乎没有)
  2020   :4岁小孩
2022一 月:7岁小孩
  2022十一月:9岁小孩
  但是令人发毛并不是它的成长速度,而是AI研究者是到2023年2月才发现AI能进行
战略性思考这件事。
  同时AI也已经发展出像AlphaGo一样的自主学习力,能自行筛选喂自己什么资料能提
升自己去通过更高程度的心智检测。(此能力还在元初阶段,还没我们想像中的可怕。)
  现存最专业的AI工程师在2021年预测AI应该会在4年后达到能解答五成以上的竞
赛级数学问题的程度。但是实际上只花了1年。而且预计在今年能上看达到全解程度。
  结语的部分,讲者呼吁所有西方研究者应该共同放慢发展脚步,别怕会被中国超越(
影片内有讲为什么,懒得打了),讲我们正在历史的分水岭之上,应该谨慎行动。
  
个人心得:
  难怪马斯克会发出暂停AI研发的呼吁,我听完也觉得这真的不是危言耸听。
  讲者也提到:“你可能听完这场演讲之后会觉得跟现实脱离,明明网络上大家跟AI
聊天很好笑啊、看AI色图很爽啊,哪来什么危险?其实我们在规划这个讲座的时候也一
直有这种感觉,但是我们也没办法客观的指出一个特定危险的点,就像过去人类没办法点
出社群网站的害处一样。”
  再补充一个影片段落,“AI发展”和“AI安全防治”的研究人数比是30:1。
  还有一句他们用的比喻:“核弹对于现实世界的危害就相当于AI对于资讯社会的危害
,但是核弹不会自己变强。”
作者: kitune (狐)   2023-04-23 11:42:00
可是一龙马要自己开发AI
作者: Fatesoul (Chiester)   2023-04-23 11:45:00
你要有法规范
作者: reader2714 (无毁的湖光)   2023-04-23 11:59:00
挺有趣的 结果"语言" 是大一统的关键

Links booklink

Contact Us: admin [ a t ] ucptt.com