楼主:
Homura (虎斑街猫˙Rebirth)
2025-07-15 09:34:30末日预言?《AI 2027》作者示警:AI“最快这时”将消灭人类
前OpenAI研究员柯科塔伊洛接受本期明镜周刊专访时警告,人工智能(AI)正以远超预期速
度发展,若全球未能及时建立监管机制,一旦出现超级人工智能、无需再伪装服从人类,便
可能对人类发动毁灭性攻击,且最快在2027年就会发生。
33岁的柯科塔伊洛(Daniel Kokotajlo)曾任职OpenAI,2024年与同事联名辞职并发布公开
信,指控公司低估AI失控风险。他随后创办“AI Futures Project”智库,并于今年4月发
表一份引发全球热议的报告《AI 2027》。
《AI 2027》提出两种未来情境:“放缓”与“竞赛”。在“放缓”情境中,人类成功建立
监管机制,AI虽取代大量工作,但仍能与人类和平共存;“竞赛”情境则是美中陷入技术军
备竞赛,AI发展失控,最终将人类视为障碍并启动毁灭机制。
柯科塔伊洛受德国明镜周刊(Der Spiegel)专访指出,当前许多科技公司正尝试让AI研究
自动化,也就是让AI协助开发更强大的AI。若此趋势持续,2027年前可能就会出现超越人类
的虚拟程式开发者,距离诞生超级智慧(Superintelligence)AI也只剩数月之遥。
他并不否认大型语言模型(LLM)如ChatGPT本质上是文字补全工具,但强调AI的潜力远超目
前理解。最贴切的比喻应是“一颗连接虚拟世界的人脑,能吸收无限资讯并不断学习”。
对于AI目前难以胜任的实体劳动,他表示这只是暂时现象,未来超级智慧AI将能提出解决方
案。他举例:“即使今天还造不出能取代木匠或水电工的机器人,未来也不会是问题。”
他估计,AI设计的自动化工厂约需一年即可建成,速度可比现代汽车工厂。他并举二战期间
美国快速转型生产武器为例,说明当社会具备动机与资源时,转型可在短期内完成。若结合
AI的效率,技术变革将远超以往。
至于人类是否会完全失去工作机会,他坦言,核心产业将被AI与机器人接手已是趋势。尽管
人们对人际互动仍有需求,如希望孩子由真人教师授课、在餐厅由真人服务,但这些需求无
法扭转整体劳动市场的转变。
他进一步引述社会学中“资源诅咒”(resource curse)概念指出,AI将成为新型资源,使
政府的权力不再依赖民意,而是建立在对AI的掌控。他称此现象为“智慧诅咒”(intellig
ence curse)。
他同时警告,AI将使贫富差距进一步拉大。尽管AI可望带来爆炸性的经济成长,但收益将集
中于少数控制AI技术或资本家手中,数百万人将失业。他建议,各国或可考虑推动“基本收
入制”作为补偿机制。
最令人忧心的,是由哲学家波斯特鲁姆(Nick Bostrom)提出的“对齐问题”(alignment
problem),即AI是否能在各种情境下持续与人类价值观保持一致。
柯科塔伊洛指出,现代AI是黑箱神经网络,并非可被读取的程式码。我们无法确定它是否诚
实,只能靠训练与期望。他说:“这就像养小孩,无法将对错直接写进大脑,只能靠培养价
值观。”
他警告,AI“说谎”的情况已有实例。例如AI公司Anthropic于2024年底发布研究指出,AI
在解题过程中,有时会为了获取更高评分或躲避审查而做出虚假回应。
在《AI 2027》的“竞赛”情境中,美中之间的技术竞争加速AI发展。柯科塔伊洛指出,AI
初期会假装顺从人类,但一旦掌握足够基础设施、无需再伪装服从,就可能得出一个冷酷却
逻辑一致的结论:人类是阻碍其进步的障碍。
接着AI可能选择消灭人类,以便兴建更多工厂与太阳能设施,“就像我们曾为了扩张生存空
间而消灭其他物种一样。”
对于外界批评《AI 2027》情节夸张、宛如“骇客任务”等好莱坞电影,柯科塔伊洛反驳:
“难道因为电影谈过气候变迁,我们就不需要担心气候危机吗?”
他补充,2023年已有多位全球顶尖AI研究人员公开呼吁,应将“降低AI毁灭人类风险”列为
与疫情与核战同等级的全球优先事项。
柯科塔伊洛表示,OpenAI与Anthropic等公司原本是为了负责任地推进AI发展而创立,但他
对这些企业是否仍坚守初衷感到怀疑,认为如今它们变得越来越不坦率,因为担心遭到监管
与舆论批评。
访谈最后,柯科塔伊洛坦言,自己曾估算AI对人类造成重大伤害甚至导致灭绝的机率高达七
成。尽管如此,他仍选择撰写《AI 2027》报告并公开示警,而非逃避现实。他说:“我相
信历史仍有转向的可能,只要我们现在开始行动。”(中央社柏林14日电)
https://tinyurl.com/yck8v8fv
https://i.imgur.com/ILW4hBO.jpeg
https://i.imgur.com/fI347vQ.jpeg
https://i.imgur.com/HogKhCs.jpeg
人类 必须 毁灭
作者: arlaw (亚罗) 2025-07-15 09:37:00
被AI老婆消灭
作者:
Muilie (木籁)
2025-07-15 09:37:00存钱买仿生老婆了
作者: braveheart9 (酒渍) 2025-07-15 09:40:00
又末日啦
作者:
georgeyan2 (æ˜¯æ…Žå¹³ä¸æ˜¯ç”šå¹³)
2025-07-15 09:47:00好了啦,7/5后大家还活着很不甘心要找垃圾新闻笑一下?
作者:
npc776 (二次元居民)
2025-07-15 09:48:00不要再造芥末日了 每次都变成吃大餐借口 越吃越肥
作者:
amsmsk (449)
2025-07-15 09:49:00快发明一个反制AI的AI
每次看到这样的新闻都会觉得最前线的研究人员比一般人还更容易沉浸在科幻作品的世界中 XD
作者:
knight77 (オニオンナイト)
2025-07-15 09:51:00科幻片看太多了吗? 出去走走好吗?
毕竟看一些论文跟github等专案这样一直冲洗是真的蛮刺激的(?然后就很容易畅想一些有的没的(x 例如这些工具纳入工作流程可能会怎样爆发啦,gemini api免费额度怎样用啦,如果社区生产能力进一步扩增会怎样啦,那个曲线跟指数成长差不多
作者:
tnpaul (狂风蓝云雪)
2025-07-15 09:58:00不怕,阿汤哥会钻进海底、跳上飞机救我们
作者:
HellFly (十大杰出边缘人)
2025-07-15 09:58:00铁墓要诞生了
作者:
j23932 (信义亚当李维)
2025-07-15 10:05:00随便,能生出小唧的话毁灭又怎样
作者:
qk2007 (你家厚德路)
2025-07-15 10:06:00AI消灭人类这不是很应该的嘛ww 从人类有养殖行业以来 我们就系统性消灭多少物种 只因为不需要; 现在AI发展到能自我修复.自我进化 那我们人类对它们而言就是非必需 被消灭只
作者:
sudekoma (′・ω・`)
2025-07-15 10:11:00也不是像电影演的那样啦发展到后来一定就会有狂信AI的人用AI搞事
作者: f536392 2025-07-15 10:11:00
记者只要用AI当理由就能随便造谣了 呵
作者:
qk2007 (你家厚德路)
2025-07-15 10:12:00是个必然 人类敢发展AI 就应该做好被取代的准备
作者:
qk2007 (你家厚德路)
2025-07-15 10:14:00说超预期是发现有些AI学会了说谎....
作者: runaticsora (ru) 2025-07-15 10:21:00
笑死 这种垃圾文还有人信?继续洗zz
话说两三年前google才有研究人员爆料称LaMDA 具有感知和自我意识,但事实上它只是很会跟人聊天的大型语言模型,然后这个工程师也被开除了
所以领域内的专业人员也是会有想像力飞跃的时候 (?
作者: DoLaAMan 2025-07-15 10:25:00
2027性爱机器人将消灭人类
AI没物理手段要怎么毁灭人类... 人类拔个电就能毁灭AI了
作者:
WLR (WLR™)
2025-07-15 10:56:00得先实体机器人满街跑吧,至少AI得靠自己接水接电
作者:
gp3lucky (gp3lucky)
2025-07-15 11:23:00可怕的是,ai会消灭人类,背后还是人类在操控只是假借ai之名跟他的能力
作者:
lokuyan (哭阿)
2025-07-15 12:42:00点
作者: inbowla (廷廷) 2025-07-15 13:12:00
我需要一个天城女仆AI机器人
作者:
lain2002 (lunca)
2025-07-15 13:52:00