在AI竞赛中,谷歌和微软选择了上市速度而非道德底线
https://bit.ly/3Upk0Nc
2023年3月,两名负责审查公司AI产品的谷歌员工试图阻止谷歌推出AI聊天机器人,因为他们认为它产生了不准确和危险的陈述。
其实,在十个月前,微软的伦理学家和其他员工也提出了类似的疑虑。其提及AI计划中的聊天机器人背后的技术可能会在脸书群组中刊登充斥虚假讯息,削弱批判性思维并侵蚀现代社会的事实基础。
即使如此,微软仍决定在2023年2月份一场引人注目的活动上,展示了采用OpenAI的ChatGPT的AI聊天机器人,其融入了在Bing搜寻引擎中。大约六周后,谷歌也推出了自己的聊天机器人Bard。
无论是微软或者是谷歌都知道,生成式AI是高科技产业的下一件大事。如果它们同时被道德准则所牵制,一旦只要一家公司推出,其就会丧失这一领域主导优势。换句话说,当科技产业突然转向一种新技术时,通常第一个推出产品的公司是长期的赢家,有时候这一种差异是以周为单位。既然如此,微软和谷歌只能先抛开束缚,先上市再说。
另一个压迫他们提早上市的关键是ChatGPT的惊人成功,因此让微软和谷歌愿意承担更大的风险,甚至不管多年来制定的道德准则。
在2023年3月底,科技产业有超过1,000名研究人员和产业领袖,包括特斯拉的马斯克和苹果公司的联合创始人Steve Wozniak,呼吁暂停六个月开发出更强大的AI技术。他们在一封公开信中表示,这给社会和人类带来了深远的风险。
如今监管机构已经威胁要进行干预。例如:欧盟提议立法监管AI,意大利于3月底暂时禁止使用ChatGPT。在美国,拜登总统于4月初成为最新一位质疑AI安全性的总统。白宫也表示,科技公司有责任确保他们的产品在公开之前是安全的。
研究人员表示,微软和谷歌正在冒险发布连其开发人员都不完全理解的技术。但微软和谷歌表示,他们已经限制了新聊天机器人最初发布的范围,并且他们已经建立了复杂的过滤系统来清除仇恨言论和可能造成明显伤害的内容。
总之,在商业利益的驱使下,微软和谷歌愿意承担更大风险,也不愿尚丧失成为领导者的机会。即使其内部仍旧保留审查道德方面工作的人员,但是要求私人企业维持道德的最后一道防线,似乎是相当困难的事啊!