https://ec.ltn.com.tw/article/breakingnews/4874587
黄仁勋质疑AI当前信赖度 提醒“幻觉”问题
2024/11/25 17:24
https://img.ltn.com.tw/Upload/business/page/800/2024/11/25/phpeOZp3r.jpg
辉达执行长黄仁勋在香港科技大学接受采访时对人工智能(AI)的现状表示怀疑,他称还
须数年时间才能拥有可信任的AI系统。(彭博)
吴孟峰/核稿编辑
〔财经频道/综合报导〕辉达执行长黄仁勋在香港科技大学接受采访时对人工智能(AI)
的现状表示怀疑,他称我们还须数年的时间才能拥有可信任的AI系统。
黄仁勋表示,今天的人工智能并不总是可给出可靠答案,我们可能还需要几年时间,才能
拥有一个可以在很大程度上信任的人工智能系统。他说:“与此同时,我们必须不断增加
我们的运算能力”。
黄仁勋也强调人工智能中的“幻觉”(hallucination)问题。他称,使用者不应该质疑
人工智能的反应是“幻觉还是非幻觉”、“明智还是不明智”。他用“幻觉”来指涉人工
智慧给予虚假或虚构讯息的情况。
对于ChatGPT等高阶语言模型来说,这一直是一个主要问题,尽管它们在过去几年中,在
回应复杂查询能力取得令人难以置信的进展。
OpenAI因人工智能“幻觉”而面临法律诉讼,人工智能的幻觉问题已经引发法律纠纷。去
年,一名电台主持人在其ChatGPT模型对他提出虚假法律投诉后,该名媒体人起诉OpenAI
。这事件凸显人工智能缺陷对现实世界的影响,以及科技公司在使其可靠方面遇到的困难
。
黄仁勋也质疑,在为特定任务开发人工智能模型之前在大型、多样化的资料集上进行预训
练的有效性。他认为这种方法不足以创造可靠的人工智能系统。
黄仁勋的评论凸显科技业正进行的关于如何改进大型语言模型(LLM),而不仅仅依赖大
量数据的争论。