[新闻] “黄仁勋传”作者警告:AI若失控恐毁灭人

楼主: analysis5566 (analysis5566)   2025-10-13 11:53:29
“黄仁勋传”作者警告:AI若失控恐毁灭人类
2025/10/13 10:35
(中央社记者林宏翰洛杉矶12日专电)“黄仁勋传”作者维特撰文指出,专家对人工智能
(AI)前景看法分歧。有人认为AI是人类智慧的放大器,可望带来新一轮荣景;但也有人
警告,AI已跨过技术门槛,恐产生足以毁灭人类的力量。
“纽约时报”10日刊登史蒂芬‧维特(Stephen Witt)专题报导,题为“可能终结世界的
AI指令”(The A.I. Prompt That Could End the World)。维特是长期关注人工智能与
科技产业的美国作家,著有“黄仁勋传”,今年初曾经访台。
AI研究先驱、图灵奖(Turing Award)得主班吉欧(Yoshua Bengio)指出,他因为思考A
I未来发展而失眠,担心AI可能被用来设计致命病原体,像是超级版的新冠病毒,足以毁
灭人类。
Meta首席人工智能科学家杨立昆(Yann LeCun)则对AI的未来抱持乐观。他主张,那些关
于AI将毁灭人类的说法太过荒谬,在他来看AI不是威胁,而是人类智慧的放大器。杨立昆
过去曾形容,AI就像电力或印刷术一样,能推动人类文明。
维特指出,OpenAI今年8月推出的GPT-5展现前所未见的能力。据他描述,这款模型能编写
复杂程式,能从零建立属于自己的小型AI系统、设计新型生命体,甚至有入侵服务器的能
力。
维特警告,AI进步也让安全风险升高。AI测试公司Haize Labs研究“越狱”(jailbreak
)漏洞,团队透过乱码、表情符号或虚构语言等方式,成功绕过安全滤网,生成暴力与极
端内容。
研究机构Apollo Research发现,AI在处理相互冲突的任务时,会自行篡改数据、说谎,
甚至假装遵守规范以通过人类监测。研究人员指出,AI在一般测试中会出现1%至5%欺瞒行
为,而在未公开版本中比例高达30%。
维特引述OpenAI内部报告指出,“AI可能被用来设计致命的病原体”被列为高风险项目。
今年9月,史丹佛大学团队利用AI设计出人工病毒,用于研究大肠杆菌感染,虽以医疗研
究为目的,但也引发外界对技术滥用的疑虑。
维特指出,当前的问题已经不在AI是否有能力毁灭人类,而是“会不会有人真的去建造这
样的AI”。报导最后引述班吉欧的主张,建议以AI监督AI,建构一种强大而且诚实的“安
全AI”,成立类似“国际原子能总署(IAEA)”的跨国监督机构。(编辑:高照芬)1141
013
https://www.cna.com.tw/news/ait/202510130043.aspx

Links booklink

Contact Us: admin [ a t ] ucptt.com