https://openai.com/index/hello-gpt-4o/
GPT-4o是迈向更自然的人机互动的一步——它接受文字、音讯和图像的任意组合作为输入
,并产生文字、音讯和图像的任意组合输出。 它可以在短至 232 毫秒的时间内反应音讯
输入,平均为 320 毫秒,这与人类在对话中的反应时间相似。它在英语文字和程式码上的
表现与 GPT-4 Turbo 的效能相匹配,在非英语文字上的效能显著提高,同时 API 的速度
也更快,成本降低了 50%。 与现有模型相比,GPT-4o 在视觉和音讯理解方面尤其出色。
从影片中的范例可以发现:GPT-4o已经可以不用停顿地跟人类对话,你可以在它讲话时中途
打断它,此外GPT-4o也更加情绪化-它可以理解你说话时的心情、有感情地跟你聊天、理解
你话语中带有讽刺意味。它可以即时翻译而几乎没有延迟,也可以跟另一个AI互相对话。
你可以叫它为你唱歌、随意将镜头移到日常用品并询问其西班牙文讲法、将镜头移到纸本
数学题并请它教你解题、将手机镜头环顾四周并问它你现在的地点、参加公司视讯会议。
发布会上OpenAI特别感谢黄仁勋提供大量GPU。GPT-4o将在未来数周内逐步整合到各项产品
中,所有使用者都可免费使用,但付费订阅户可拥有免费使用者足足五倍的容量上限。