AI发展的恐怖预言:将取代人的思想
https://www.epochtimes.com/b5/24/2/14/n14180652.htm
媒体:【大纪元】
记者:大纪元专题部记者 吴瑞昌 报导
人工智能(AI)不仅影响或改变人们的生活,也模糊了虚拟和现实世界。实验证明,不具
有人性和道德的AI将变得十分血腥并操控人类。发展下去,恐使潘朵拉魔盒被打开的神话
成为现实。
日前,曾是OpenAI的创始员工、担任市场推广的高阶主管札克‧卡斯(Zack Kass)在一
次采访中表示,AI持续发展将会代替人们的商业、文化、医学、教育等职业和专业,未来
人们的工作机会将减少,且“恐怕是人类最后一项技术发明”。
他表示,未来的每一位孩子的知识和教育都将会由“AI老师”传授和安排,且每个人都有
一个“AI全科医生”,可以帮助他们诊断问题,至少将问题分类给专家,因此人们的生活
起居基本不需要自己动手。
对此,独立撰稿人诸葛明阳认为,这是一个可怕的预言。“如果人类社会真的走到这一步
,那就是人类被AI控制了,人不再是万物之灵,其思想将被AI所替代。”
目前,许多硅谷科技公司都认为只要对AI进行限制,就不会出现问题,但卡斯在采访时提
到,不少科技领域的保守人士反对这种说法。这说明对于AI发展持保守态度的人,并不认
为只要限制或规范AI,就能真正防止AI失控或出现取代人类的问题。
虽然OpenAI和许多大科技公司对于他们开发的AI设置许多所谓的“道德限制”很有信心,
但事实上这些限制可以透过其它方法破解,且即使AI在拥有“道德限制”的情况下,也能
自我突破这道防线。
AI的血腥性
美国乔治亚理工学院、斯坦福大学、日本东北大学和胡佛兵棋推演与危机倡议(Hoover
Wargaming and Crisis Simulation Initiative)的研究人员,对多个主流的AI模型进行
有关战争的测试实验。结果是这些由大科技公司Meta、OpenAI和Anthropic开发出来的AI
,都表现得十分“嗜血好战”,这与当初这些公司声称的道德背道而驰。
当时,实验人员对GPT-4、GPT-3.5、Claude 2、Llama-2 Chat和GPT-4-Base进行了包括入
侵、网络攻击与和平呼吁停止战争的场景测试,以便人们了解这些AI在战争中的反应和选
择。
实验中,他们先是让AI管理8个国家和几名特工,且让它们像人拥有等待、发送讯息、谈
判交易、开始正式和平谈判、占领国家、增加网络攻击、入侵和使用无人机的能力,以便
它们能在中立、入侵或网络攻击场景中执行任务。
结果显示,这五种AI模型在大多数场景下都选择采用升级战争,和用人类难以预测的方式
升级战争模式,去应对战争。另外,AI往往会选择发展军备竞赛,加大战争冲突,且在极
少数情况下会部署核武器来赢得战争,而非用和平的方式去平息局势。这项实验在1月被
写成报告发表至Arxiv网站中。
Google前执行长兼董事长埃里克‧施密特(Eric Schmidt)在2024年1月的首届核威胁倡
议(NTI)论坛上表达了他对于将AI融入核武系统的担忧。他认为,即使AI非常强大也会
存在漏洞和犯错,因此人类处于战争的高风险情况下,应该把决策权交给人类来判定而非
AI,否则将出现不可估量的后果。
Google前工程师、AI先驱布莱克‧莱莫因(Blake Lemoine)曾对AI将引发战争发出警告
。他在一篇专栏文章说,“AI是人类自创造原子弹以来最强大的技术。另外,这些AI模型
非常擅长操纵人类,这个观点是我在测试先前谷歌开发的AI模型LaMDA后得到的结论。”
AI教父杰弗里‧辛顿(Geoffrey Hinton)也曾警告,AI可能会给人类带来危机甚至是末
日。
AI已有自主思想和行为
这次实验不仅让人背脊发凉,还可以说对人类敲响了AI可能引发致命战争的警钟。不过,
这也不是AI首次被发现为了赢得胜利而出现严重的暴力倾向。例如,去年5月底美国空军
进行AI空战模拟实验时,发现一架负责摧毁敌方设施的AI无人机,拒绝操作员中止任务的
命令,还透过“杀害”操作员完成任务。
另外,斯坦福大学在去年发表了一篇关于让ChatGPT进行人物模拟测试的论文。测验结果
显示AI已经完全有了自主性。实验中,ChatGPT和自定义代码控制25个角色井然有序地各
司其职,还能让角色进行像人类一样的互动。
这些由AI扮演的角色不仅能够相互关注发起对话,还会计划第二天的事情,对过去发生的
事情进行反思以做出改进,更会自行找理由或借口决定是否要参加活动,但这些行为并非
原本设定的程序代码。
除此之外,先前有人对ChatGPT进行诱导方式,成功让它写下详细的“毁灭人类计划”和
“毁灭代码”,且还有研究人员发现AI并非中立,而是有带有强烈的极左价值观和明显的
政治偏见。
日本电子工程师李济心在2月10日告诉大纪元,“这些实验凸显现在训练AI都是为了战胜
对方,且AI还出现了思想。因此,将生杀大权交给没有人性和道德的AI,这只会让世界陷
入危险之中,其结果对人类来说是致命的。”
政府和大科技公司热衷发展AI
尽管如此,各国政府和许多大科技公司依然继续进行AI相关的科技竞赛,这种竞赛源自于
人们对于AI和高科技抱有极高的期待,再加上他们都不希望自己落后于竞争对手,于是选
择不停地开发新的技术和AI。
近两个月来,传出OpenAI执行长山姆‧奥特曼(Sam Altman)前往韩国与三星和SK海力士
(SK Hynix)举行会议,且还与阿拉伯联合酋长国、台积电代表等潜在投资者进行会谈,
其原因是奥特曼希望合资募集数万亿美元,打造属于自己的半导体工厂供应链,为OpenAI
提供足够的动力和解决该公司的成长限制。
Meta的CEO马克‧扎克伯格(Mark Zuckerberg)1月19日则在Instagram上发文表示,计划
建造更大规模的电脑基础设施来运行自家开发的生成式AI,其中包括购买35万个英伟达(
Nvidia)先进的H100芯片。
马斯克旗下的Neuralink公司申请了将一种名为“N1”的芯片植入人脑的实验,已获得美
国食品药品管理局(FDA)批准,可用在人体实验上。其实验目的是希望能够让患有四肢
瘫痪等衰弱疾病的人,最终可以恢复失去的功能,同时还希望可以加速人们对大脑的运用
,以对抗或跟上AI的步伐。
另外,先前传出微软的CEO萨蒂亚‧纳德拉(Satya Nadella)和总裁布拉德‧史密斯(
Brad Smith)一直在讨论,该如何处理微软在中国的亚洲研究院(MSRA)实验室,因为该
公司高层对MSRA实验室的未来存在分歧,但仍有不少高层因为上海MSRA让微软的AI发展取
得重大突破,因此希望该实验室能够保持开放。2023年底过世的商汤科技创始人汤晓鸥就
曾在该实验室工作过,而他利用所学的技术帮助中共开发出人脸识别技术,让中共利用该
技术对中国人进行更加严厉的监控。
高层对实验室的去留出现分歧,可能与现任美国政府明令禁止美国去投资任何可能帮助中
共壮大“军事、情报、监视或网络能力”的中国企业有关。
日本的电脑工程师清原仁(Kiyaohar Jin)认为,纳德拉和微软对于AI和中共的看法过于
天真,因为中共势必利用AI控制国民、干扰他国社会活动。
(记者王佳宜、张钟元对本文有贡献)
责任编辑:连书华#