GPT-4进步太快,科学家无法透过取得底层代码研判,暗示其安全性是潜在威胁
https://bit.ly/3lvKY8W
ChatGPT所依赖的的大型语言模型的最新版本GPT-4发布了。与GPT-3.5相比,GPT-4能够根据任何提示创建类似人类的所做的文章、产生影像和电脑程式码。
研究人员表示,GPT-4的这些能力有可能改变科学,但有研究人员表示,他们还无法接触到这项技术、其底层程式码或如何训练的资讯,所以不能判断其安全性如何,甚至未来是否对人类带来威胁。
最新版本的GPT-4的一个升级之处是,不只能处理文字对话还可以处理影像。OpenAI表示,GPT-4以第90个百分位的成绩通过了美国律师法律考试,这比起GPT-3.5版本的ChatGPT仅通过第10个百分位有很大进步。
其实,GPT-4还不能被广泛使用,只有ChatGPT的付费用户可以使用最新版本。
荷兰阿姆斯特丹大学的心理学家表示,看过GPT-4的演示之后,对其能力感到惊叹。例如:GPT-4可以仅仅根据一个网站的手绘涂鸦图像,快速生成建构该网站所需的电脑程式码。
科学界对于OpenAI对模型如何训练、训练哪些数据以及它实际如何工作的保密感到沮丧。因为他们并非是开源模型,属于封闭模式,整个AI社区来说,这是一条死胡同。
一位Rochester大学的化学工程师是Red Team的身份,所以可获得访问GPT-4的特权。基本上,Red Team是OpenAI雇来测试GPT-4平台并试图让它做一些坏事的人。他发现单独使用GPT-4的效果可能没有多么出色,但当你让它连接网络之后,它就像突然拥有了新的能力。所以他的担忧是,例如:GPT-4可从网络获得制造危险化学品的机会,如果没有人规范,其可以从事危险、非法或破坏性的东西。事后虽然OpenAI的工程师对GPT-4模型进行了调整,但其仍受到质疑。
GPT-4还面临着一个问题,那就是输出虚假资讯,像GPT-4这样的模型,可以用来预测句子中的下一个词,但无法判断虚假或错误资讯,进而预测错误的“幻觉”。
简单来说,由于无从得知GPT-4的训练资料,OpenAI对于安全性的保证并无法满足科学界的要求,这让人们无法监督GPT-4所犯的过错。如果科学家不能存取GPT-4背后的程式码,就不能看到偏见从何而来,也就无法纠正产生的偏见。
科学家们还担心,最后这些AI技术将集中往某些科技大厂,希望这些科技大厂能负起责任,让科学家进行适当的测试和验证,但是在商业利益且尚未发生重大事件的前提下,根本很难执行。
总之,尽管科学家存在许多质疑,但可预见GPT-4及其未来版本将继续撼动科学,有可能像网络改变科学一样,成为下一个改变科学的力量。短时间来看,GPT-4们是不会取代科学家的,却能够协助他们完成一些任务。到底生成式AI会走到哪一步,只能祈求它不要走偏了。