[新闻] 美学者:未来100年内“AI消灭人类”机率

楼主: satosi011 (烧成灰都是个绅士)   2024-06-07 09:35:19
备注请放最后面 违者新闻文章删除
1.媒体来源:
ETtoday新闻云
2.记者署名:
记者张宁倢/编译
3.完整新闻标题:
美学者:未来100年内“AI消灭人类”机率高达99.9% 预示3悲惨结局
4.完整新闻内文:
研究人工智能(AI)的美国知名大学教授扬波尔斯基(Roman Yampolskiy)近日表示,他
估计AI在未来100年内导致人类灭绝的机率高达99.9%,原因是至今仍没有一个AI模型是完
全安全的,未来也很难创造出零缺陷的高度复杂模型。不过,大多数AI研究者态度较为温
和,认为AI消灭人类的机率大约是1%到20%。
根据美媒《商业内幕》报导,扬波尔斯基在路易斯维尔大学(University of Louisville
)教授电脑科学,专精网络与AI安全方面研究。近日他出版新书《人工智能:无法解释、
预测或控制》(AI: Unexplainable, Unpredictable, Uncontrollable.),并在一档
Podcast节目中谈了2个多小时有关AI未来可能造成的风险,但所持态度相当悲观。
人工智能带来人类灭绝风险
扬波尔斯基认为,AI是否灭绝人类的关键取决于,人类能否在未来100年内创造出高度复
杂并且零出错(with zero bugs)的软件。但他估计这样的可能性并不高,因为人们一直
在试图让AI去做一些超出它原先设计范围内的事情,因此迄今没有任何一种AI模型是完全
安全的。
扬波尔斯基说,“它们已经酿成失误,我们发生过意外,它们曾越狱(jailbroken)过。
我不认为现今存在一个单一的大型语言模型是可以成功防止它做一些开发者不想让它做的
事。”
AI发展的3种悲惨结局
扬波尔斯基认为,为了控制AI,需要一个永久的安全机制,“即使我们在接下来来几个版
本的GPT中做得很好,AI也会继续改进、学习、自我修改,并与不同的玩家互动,同时有
生存风险,这‘只有一次机会’”。
扬波尔斯基警告,“我们无法预测一个更聪明的系统会怎么做”。他在通用人工智能(
AGI)的背景下将人类比喻成松鼠,而AI却能想出一些甚至人类还不知道存在的东西。扬
波尔斯基预测了3种结局,其一是每个人都会死,其二是每个人都很痛苦并渴望死亡,其
三是AI系统比人类更具创造力,并能完成所有工作,导致人类无所事事并完全失去他们的
追求。
其他人怎么看?
扬波尔斯基受访的Podcast节目主持人费里曼(Lex Fridman)表示,与他讨论过的大多数
AI工程师都认为,AI消灭人类的可能性约在1%到20%之间。另外,最近一项针对2700名AI
研究人员的研究结果显示,此一机率只有5%。
ChatGPT开发公司OpenAI的CEO奥特曼(Sam Altman)建议设立一个“监管沙盒”(
regulatory sandbox),让人们能在其中对AI进行实验,并根据实验结果进行监管与调整
。奥特曼2015年曾半开玩笑地说,AI最有可能导致世界末日,但在此期间,会诞生许多伟
大的公司。特斯拉执行长马斯克(Elon Musk)也曾预测,AI毁灭人类的机率为10%到20%

另外,前Google CEO施密特(Eric Schmidt)曾经表示,AI的真正危险在于网络与生物(
生化)攻击,但这些风险将在3到5年内显现出来,若AI真的发展出意志,他认为最简单的
解决方法是:人类可以直接拔掉插头。
5.完整新闻连结 (或短网址)不可用YAHOO、LINE、MSN等转载媒体:
https://www.ettoday.net/news/20240606/2753398.htm
6.备注:
※ 一个人一天只能张贴一则新闻(以天为单位),被删或自删也算额度内,超贴者水桶,请注意
※ 备注请勿张贴三日内新闻(包含连结、标题等)

Links booklink

Contact Us: admin [ a t ] ucptt.com