Jim Fan锐评:GPT-4o低延迟的奥秘在这里

OpenAI在深夜发布了号称比GPT 4-Turbo还快2倍的新模型GPT-4o后,英伟达高级研究科学家Jim fan表示:从系统上看,如果每个视频帧都解压成RGB图像,就能实现低延迟。

14日凌晨,OpenAI召开了一个简短的发布会,发布了新的AI模型:GPT-4o,除了可以给普通用户使用之外,还将开放相应API给GPT的开发者,比原来的GPT 4-Turbo快2倍,价格还便宜50%,妥妥的“加量又减价”。

英伟达高级研究科学家Jim Fan对此发了篇长推文,点评OpenAI的这款新模型:低延迟,支持文字、图像和视频输入和输出,而且还会假装自己是有情感的人类...

原文如下:

我知道你的时间线上现在充斥着“疯狂的,电影《Her》,你错过的10个功能,我们又回来了”这样的文字。 坐下来,像Mark在演示中那样深呼吸,让我们一步步思考:

从技术角度来看,OpenAI已经找到了一种方法,可以直接将音频映射到音频作为第一类模态,并实时将视频流传输到transformer大模型。这需要对标记化和架构进行一些新的研究,但总体上是一个数据和系统优化问题。

高质量的数据至少可以来自以下两个来源:

首先是YouTube、播客、电视剧、电影等内容包含的对话。

可以训练Whisper来识别对话中的发言者顺序或分离重叠的讲话以进行自动注释。

其次是合成数据。使用强大的模型分3阶段运行:

语音1->文本1(自动语音识别ASR)

文本1->文本2(大型语言模型LLM)

文本2->语音2(文本到语音TTS)。

期间大型语言模型LLM可以决定何时停止,也可以模拟如何从中断中恢复。它可以输出对话中暗含“想法”,以帮助生成更好的回复。

然后GPT-4o直接从语音1>语音2过程中进行提取,可选的辅助损失函数基于3阶段数据。提取后,所有操作都被被嵌入到模型中,而不需要发出中间文本。

在系统方面:如果每个视频帧都解压成RGB图像,就能实现低延迟。OpenAI可能已经开发了基于神经网络的流式视频编解码器,以token形式传输运动增量。通信协议和神经网络推理必须共同优化。

例如,可以在终端设备上运行一个小型且节能的神经网络,如果视频有趣就传输更多token,否则传输较少。

我没想到GPT-4o会离GPT-5更近,GPT-5是传闻中的“Arrakis”模型,可以输入和输出多模态。实际上,它很可能是GPT-5的一个早期训练点,但还没有完成训练

GPT-4o的定位透露出OpenAI某种不安全感。在Google I/O之前,OpenAI宁愿超越我们对GPT-4.5的心理预期,也不愿因为达不到对GPT-5的极高期望而令人失望。这是一个聪明的举措,可以争取更多时间。

值得注意的是,GPT-4o更加活泼,甚至有点调皮。GPT-4o甚至尝试(也许有点过于努力)听起来像女性。OpenAI正在蚕食Character AI的市场份额,这两家的产品高度重叠,并且OpenAI拥有庞大的分销渠道。GPT-4o正尝试向更具情感的AI转变,OpenAI过去似乎积极抑制了这一点。

谁先赢得苹果,谁就能大获全胜。我看到与iOS的整合有三个层次:

1)放弃Siri。OpenAI为iOS提取一个较小级别的、纯粹的设备上的GPT-4o,可选的付费升级以使用云服务。

 2)将相机或屏幕流式传输到模型,芯片级支持神经音频/视频编解码器。

 3)与iOS系统级操作API和智能家居API整合。没有人使用Siri快捷方式,但现在是时候复活了。这可以立即成为拥有10亿用户的AI代理产品。智能手机的全自动驾驶(FSD)与特斯拉规模的数据飞轮。

以下是他的推特原文:

风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。