奥特曼回应:
https://x.com/sama/status/1791936857594581428
"关于 openai 最近如何处理股权的事情:
我们从来没有收回任何人的既得股权,如果人们不签署分居协议(或不同意不贬低协议)
,我们也不会这样做。既得权益就是既得权益,句号。
我们先前的退出文件中有关于潜在股权取消的规定;尽管我们从未追回任何东西,但它绝
不应该是我们在任何文件或通讯中拥有的东西。这是我的事,也是我为数不多的几次运
行 openai 感到尴尬的事之一;我不知道会发生这种事,但我应该知道。
在过去一个月左右的时间里,该团队已经开始修复标准退出文件。如果任何签署了这些旧
协议的前员工对此感到担心,他们可以联络我,我们也会解决这个问题。对此感到非常抱
歉。"
https://x.com/gdb/status/1791869138132218351
OpenAI总裁也发了声明:
"我们非常感谢 Jan 为 OpenAI 所做的一切,我们知道他将继续从外部为这项使命做出贡
献。鉴于他的离职引发的问题,我们想解释我们如何看待我们的整体策略。
首先,我们提高了对通用人工智能风险和机会的认识,以便世界能够更好地做好准备。我
们反复证明了扩大深度学习的难以置信的可能性,并分析了它们的影响;在此类呼吁流行
之前呼吁对 AGI 进行国际治理;并帮助开创了评估人工智能系统灾难性风险的科学。
其次,我们一直在为安全部署功能日益强大的系统奠定基础。首次弄清楚如何确保新技术
的安全并不容易。例如,我们的团队做了大量工作,以安全的方式将 GPT-4 推向世界,
此后根据部署中学到的经验教训,不断改进模型行为和滥用监控。
第三,未来将比过去更艰难。我们需要不断提高安全工作水平,以适应每种新车型的风险
。我们去年采用了准备框架,以帮助系统化我们的做法。
现在似乎是讨论我们如何看待未来的最佳时机。
随着模型的能力不断增强,我们预计它们将开始更深入地与世界融合。使用者将越来越多
地与由许多多模式模型和工具组成的系统进行交互,这些系统可以代表他们采取行动,而
不是仅透过文字输入和输出与单一模型对话。
我们认为这样的系统将对人们非常有益和有帮助,并且可以安全地交付它们,但这需要大
量的基础工作。这包括对他们在训练时所涉及的事物的深思熟虑、解决可扩展监督等难题
以及其他新型安全工作。当我们朝着这个方向建立时,我们还不确定何时会达到发布的安
全标准,如果这会推迟发布时间表也没关系。
我们知道我们无法想像未来所有可能的场景。因此,我们需要有一个非常紧密的回馈循环
、严格的测试、每一步都仔细考虑、世界一流的安全性以及安全性和功能的和谐。我们将
继续针对不同时间尺度进行安全研究。我们也继续与政府和许多利益相关者在安全方面进
行合作。
对于如何走上通用人工智能之路,目前还没有经过验证的剧本。我们认为实证理解可以帮
助指引前进的方向。我们相信,既能带来巨大的好处,又能努力减轻严重的风险;我们非
常重视我们在这里的角色,并仔细权衡对我们行动的回馈。
"
不过外界不相信奥特曼不知道这条款,因为他的前公司YCR HARC解散时也有类似的协议。